Rangfolgerouten in Halbleiterwaferfabriken
HeimHeim > Blog > Rangfolgerouten in Halbleiterwaferfabriken

Rangfolgerouten in Halbleiterwaferfabriken

Jul 24, 2023

Wissenschaftliche Berichte Band 13, Artikelnummer: 13267 (2023) Diesen Artikel zitieren

150 Zugriffe

Details zu den Metriken

Wir entwickeln eine Methode zur Abschätzung der Qualität von Verarbeitungsrouten in einem Wafer-Herstellungsprozess. Eine Rangfolge solcher Routen kann hilfreich sein, um bei der Anpassung von Rezepten die „besten“ und „schlechtesten“ Routen zu identifizieren. Die Routenkategorisierung ist auch bei der Entwicklung effizienter Planungsalgorithmen nützlich. Insbesondere schlagen wir eine Methode zur Rangfolge von Routen basierend auf zählbasierten Metriken wie der Anzahl der Defekte auf einem Wafer vor. Wir beginnen mit einem statistischen Modell, um ein „lokales“ Ranking eines Tools zu erstellen und erstellen dann über ein heuristisches Verfahren ein „globales“ Ranking. Angesichts der Anzahl möglicher Routen und der begrenzten verfügbaren Daten ist es praktisch unmöglich, ein vollständig statistisches Verfahren zur Rangfolge von Routen in Halbleiterfabriken zu erstellen. Dennoch zeigen unsere Gespräche mit berufstätigen Ingenieuren, dass selbst ungefähre Rankings nützlich sind, um bessere betriebliche Entscheidungen zu treffen.

In diesem Artikel entwickeln wir eine Methode zur Abschätzung der Qualität von Verarbeitungswegen in einem Fertigungsprozess. Diese Arbeit wurde von der Situation in einer typischen Halbleiterwaferfabrik inspiriert, aber die Methode könnte in jedem Sektor eingesetzt werden. Ein Teil unserer Terminologie und unseres Fokus hängt jedoch von dem Anwendungsbereich ab, den wir im Auge haben.

Eine Halbleiterfertigungsanlage wird als Fab bezeichnet. Bei einem Halbleiterherstellungsprozess werden in der Regel Halbleiterwafer (die herzustellenden Einheiten) in einer vorgegebenen Reihenfolge durch eine Reihe von Werkzeugen (oder Geräten oder Maschinen) bewegt, sodass sie von jedem Werkzeug ordnungsgemäß verarbeitet werden können. Diese vorgegebene Reihenfolge der Werkzeuge wird in der Halbleiterfertigungsindustrie als Route bezeichnet. Jedes Werkzeug in der Route verfügt außerdem über eine vorab festgelegte Einstellung, um Wafer einer bestimmten Qualität zu erhalten. Zusammen werden die Route und die vorab festgelegte Einstellung für jedes Werkzeug in dieser Route als Rezept bezeichnet.

In einer Halbleiterfabrik gibt es typischerweise mehrere Werkzeuge, die ausgewählt werden können, um einen bestimmten Schritt im Produktionsprozess abzuschließen. Ein Rezept besteht, wie zuvor beschrieben, aus einer bestimmten Reihenfolge der Herstellungsschritte sowie den Werkzeugeinstellungen für jeden Schritt. Eine Rangfolge solcher Routen kann aus verschiedenen Gründen sinnvoll sein. Erstens ist die Identifizierung der „besten“ und „schlechtesten“ Routen bei der Rezeptprüfung hilfreich. Insbesondere wenn Anpassungen an Werkzeugeinstellungen vorgenommen werden, ist es hilfreich, die besten und schlechtesten Routen im bestehenden Prozess zu identifizieren, da diese wahrscheinlich gute Leistungsgrenzen für das angepasste Rezept liefern. Zweitens kann die Routenkategorisierung verwendet werden, um eine effiziente Planung zu unterstützen. Beispielsweise kann die Routenrangfolge als ein Faktor bei der Zuteilung von Aufträgen im Verlauf des Herstellungsprozesses verwendet werden.

Wir entwickeln eine Methode zum Ranking von Routen für zählbasierte Metriken, bei der die Metrik Werte annimmt, die nicht negative ganze Zahlen sind und für die niedrigere Werte besser sind. Insbesondere ist 0 der bestmögliche Wert der Metrik. Das in diesem Artikel betrachtete Rechenbeispiel bezieht sich auf die Anzahl von Defekten auf einem Wafer.

Im Allgemeinen beginnt unsere Methode mit der Entwicklung eines „lokalen“ Rankings eines Tools und erstellt dann über ein heuristisches Verfahren ein „globales“ Ranking. Beachten Sie, dass es nicht immer möglich ist, die Werkzeuge beispielsweise anhand von Fehlerdaten direkt zu bewerten, da diese Daten häufig erst erfasst werden, wenn ein Produkt mehrere Verarbeitungsschritte durchlaufen hat. Daher müssen wir die Korrelation zwischen den Fehlern und der Werkzeugauswahl abschätzen. Ebenso ist es aufgrund der Anzahl möglicher Routen und der begrenzten verfügbaren Daten praktisch unmöglich, ein detailliertes statistisches Verfahren zur Rangfolge von Routen in Halbleitern zu erstellen. Dennoch zeigen unsere Gespräche mit arbeitenden Ingenieuren, dass selbst eine ungefähre Rangfolge hilfreich ist, um bessere Betriebsentscheidungen in der Fabrik zu treffen.

Der Rest der Arbeit ist wie folgt gegliedert. In „Literaturrezension“ geben wir einen kurzen Überblick über die frühere verwandte Arbeit. Im „Anzahlbasierten Routenranking“ schlagen wir zwei Ranking-Algorithmen für Zähldaten vor: Zählregressionsbasiertes Ranking und binäres Wahrscheinlichkeitsbasiertes Ranking. In „Rechenbeispiele“ veranschaulichen wir die Algorithmen anhand einiger Rechenbeispiele und vergleichen die Ergebnisse der beiden Ranking-Algorithmen. Abschließend schließen wir das Papier mit „Fazit“ mit Vorschlägen ab, wann ein Ranking-Algorithmus im Vergleich zum anderen verwendet werden sollte.

Es scheint relativ wenig frühere Arbeiten zur Rangfolge von Routen im verarbeitenden Gewerbe zu geben. Chang et al.1 verwenden den analytischen Hierarchieprozess (AHP), um drei Schneidwerkzeuge nach ihrer Präzision einzustufen. Sie analysieren außerdem, wie empfindlich dieses Ranking auf die Gewichtung der vom Entscheidungsträger ausgewählten Kriterien reagiert. In ähnlicher Weise entwickeln Chang et al.2 ein modifiziertes Fuzzy-AHP (FAHP), um Tools basierend auf der Gewichtung ausgewählter Kriterien zu bewerten und die Sensitivität dieser Prioritäten gegenüber den Kriterien zu analysieren. Chang et al.3 untersuchen drei Diamantschneidwerkzeuge mithilfe des Analytic Network Process (ANP), einer Verallgemeinerung von AHP. Sie ordnen diese Werkzeuge in aufsteigender Reihenfolge der Zeit, die für die Werkzeugprüfung und -überwachung benötigt wird. Das Ziel der drei oben genannten Artikel besteht darin, die Maschine mit höchster Präzision zu finden, die den Ertrag erhöht und die Herstellungskosten senkt. Sie tun dies, indem sie versuchen, die Merkmale und Kriterien zu identifizieren, die die Fertigungsqualität beeinflussen. Eine Stärke ihrer Analyse besteht darin, dass sie AHP verwenden, das qualitative und quantitative Faktoren im Ranking kombinieren kann.

Ein ähnliches Problem wird in Rao und Patel4 angegangen, die sich mit der Einstufung alternativer Fertigungswerkzeugoptionen unter Verwendung der in AHP und Fuzzy-Logik integrierten Präferenzranking-Organisationsmethode für Anreicherungsbewertungen (PROMETHEE) befassen. Das Papier schlägt die Verwendung einer verbesserten PROMTHEE-Methode vor, die AHP verwendet, um die relative Bedeutung verschiedener Kriterien zu berechnen. Somit basieren diese Gewichte auf den Präferenzen der Entscheidungsträger. Darüber hinaus beinhaltet PROMTHEE auch die Verwendung einer Präferenzfunktion für den Entscheidungsträger. Ein Vorteil der Verwendung von PROMTHEE besteht darin, dass so viele qualitative und quantitative Kriterien wie gewünscht und rechnerisch möglich sind. Darüber hinaus wird die relative Bedeutung dieser Kriterien berücksichtigt. Chakraborty5 bewertet fortschrittliche Fertigungssysteme mithilfe einer Datenumhüllungsanalyse, um eine homogene Gruppe „guter“ Systeme zu identifizieren, und nutzt dann ihre technischen Unterschiede, um sie weiter zu unterscheiden. Außerdem werden diese technischen Merkmale nach ihrer Wichtigkeit gewichtet und dann eine endgültige Rangfolge vorgeschlagen. Diese Methodik bietet eine vollständige Rangfolge der Alternativen von der besten bis zur schlechtesten und berücksichtigt auch die Benutzerpräferenzen.

Chien et al.6 verwenden den Kruskal-Wallis-Test und mehrere Vergleichstests, um problematische und normale Werkzeuge anhand des Ertragsverlusts zu unterscheiden und zu erkennen. Anschließend führen sie eine ANOVA- und Regressionsanalyse der extrahierten Ertragsverlustdaten durch, um den kausalen Zusammenhang zwischen Ertrag und problematischen Werkzeugen (Stufen) über verschiedene Prozessstufen (Faktoren) hinweg zu identifizieren. Der empfohlene Prozess berücksichtigt nirgendwo direkt die Präferenzen des Entscheidungsträgers, was sowohl Vor- als auch Nachteile hat. Sie empfehlen, dass der Entscheidungsträger jederzeit die Ergebnisse bewerten sollte, indem er die identifizierten Ertragsverlustdaten und Schlüsselprozesse überprüft, um sicherzustellen, dass nichts fehlt.

Hessinger et al.7 schlagen Methoden zur Auswahl der Werkzeuge vor, die zur Analyse der Fehlerquelle auf der Grundlage der Empfindlichkeit des Prüfwerkzeugs verwendet werden sollen. Die vorgeschlagenen Methoden drehen sich um Ertragsverluste. Außerdem werden Methoden zur Verbesserung der Inspektionseffektivität durch Filterung und Klassifizierung von Fehlertypen vorgeschlagen. Der Schwerpunkt dieses Dokuments liegt jedoch nicht auf der expliziten Einstufung oder dem Vergleich von Tools.

Madic et al.8 schlagen die Verwendung einer Multi-Kriterien-Entscheidungstechnik (MCDM) (Range of Value, ROV) zur Einstufung von Schneidflüssigkeiten vor. Obwohl ROV weitgehend unerforscht ist, argumentieren die Autoren mit seiner rechnerischen Einfachheit im Vergleich zu anderen MCDM-Methoden. Wang et al. Schlagen Sie einen Bewertungsindex für die Einstufung alternativer Rekonfigurationsschemata vor, sodass er sowohl die Vor- als auch die Nachteile der Konfigurationen widerspiegelt. Das Indexsystem wird mit PROMTHEE I und PROMTHEE II entwickelt und zur Einstufung der verschiedenen Konfigurationen verwendet.

Nestic et al.9 schlagen ein Fuzzy-Entscheidungsmodell zur Einstufung von Herstellungsprozessen aus Sicht des Qualitätsmanagements in der Automobilindustrie vor, ähnlich der Einstufung auf der Grundlage der Anzahl von Fehlern in diesem Artikel. Das Ziel ihres Modells ist jedoch anders und besteht darin, das Qualitätsmanagement durch eine Fuzzy-Erweiterung von Elimination and Choice Translating Reality III (ELECTRE III, eine Familie von MCDM) zu verbessern. Dieses Modell bewertet und ordnet Fertigungsteilprozesse im Hinblick auf wichtige Leistungsindikatoren.

Khaira und Dwivedi10 betonen wie in diesem Artikel, wie wichtig es ist, die Tools mit der besten und der schlechtesten Leistung zu identifizieren. Ihr Fokus liegt jedoch hauptsächlich auf der schlechtesten Leistung, die sie als „kritisch“ bezeichnen, da sie motiviert sind, bei der Wartung ihrer Modelle mitzuhelfen. Sie schlagen eine zweistufige Entscheidungsfindung zur Identifizierung kritischer Abschnitte und dann kritischer Geräte in diesem Abschnitt in einer Elektrodengraphit-Produktionsanlage, eine Normalisierungsmethode für den Analytic Hierarchy Process (AHP) und eine PROMETHEE-basierte Methode zur Validierung vor.

Lyu et al.11 schlagen vor, mithilfe des Chi-Quadrat-Unabhängigkeitstests, des Apriori-Algorithmus und der Entscheidungsbaummethode den Teilprozess zu identifizieren, der fehlerhafte Produkte verursacht, und Regeln zu extrahieren, um die Chargenidentifizierung von Produktfehlern und die damit verbundenen Herstellungsprozessparameter zu ermitteln. Für die Analyse nutzen sie die Internet-of-Things-Technologie (IoT), um Fertigungsdaten zu sammeln.

Elvis et al.12 nutzen MCDM, indem sie die Delphi-Methode anwenden, um zu entscheiden, wo ein neues Werkzeug oder eine neue Technologie im Automobilherstellungsprozess platziert werden soll.

Die oben genannten Dokumente konzentrieren sich auf die Analyse der Fehlerquelle, die Unterstützung bei der Verwaltung und die Beseitigung leistungsschwacher Werkzeuge. Unsere Ziele unterscheiden sich von diesen darin, dass das Hauptziel dieser Arbeit darin besteht, Routen in einem System mit vielen Tools und damit vielen potenziellen Routen zu bewerten, wenn jedoch vergleichsweise viel weniger Daten verfügbar sind.

Unser Ziel ist es, einem Ingenieur die Auswahl einer der potenziell besten Routen zum Testen neuer Rezepte zu ermöglichen. Die von uns vorgeschlagenen Algorithmen berücksichtigen die Präferenzen des Entscheidungsträgers erst ganz am Ende, und selbst dann ist dies optional. Daher ist unsere Methode flexibler als viele zuvor entwickelte Methoden, da der Entscheidungsträger die Möglichkeit hat, das Modell überhaupt nicht zu manipulieren und ein von unserem Modell erstelltes, vollständig algorithmisches Ranking zu verwenden. Darüber hinaus werden die Präferenzen des Entscheidungsträgers nicht für die bewerteten Werkzeuge oder die im Prozess beteiligten Schritte berücksichtigt, sondern für die relative Bedeutung der Mängel im Verhältnis zueinander. Tatsächlich beziehen wir die Präferenz des Entscheidungsträgers als Gewicht für einen bestimmten Fehler ein. Dies erfolgt für jeden Fehler separat und anschließend werden alle gewichteten Punkte aufsummiert.

Wie oben erwähnt, handelt es sich bei einem Rezept um eine bestimmte Reihe von Schritten und Werkzeugeinstellungen, die zur Herstellung eines Geräts erforderlich sind. In den meisten Fällen kann jeder Schritt von verschiedenen Werkzeugen innerhalb einer Werkzeuggruppe ausgeführt werden. Diese Tools weisen oft leicht unterschiedliche Fähigkeiten und Leistungsmerkmale auf. Hier und in den folgenden Abschnitten gehen wir davon aus, dass eine Reihe von Wafern mit bekannten Routen analysiert wurden. Beachten Sie, dass eine Route aus praktischen Gründen normalerweise nur einen kleinen Teil des vollständigen Rezepts für eine Waffel darstellt.

In diesem Abschnitt entwickeln wir Ranking-Algorithmen, wenn die interessierende Metrik eine Anzahl (dh eine nicht negative ganze Zahl) ist. Bei der gesamten Analyse gehen wir davon aus, dass eine niedrigere Zahl besser ist. Daher sind diese Techniken sinnvoll, wenn die Anzahl der Defekte auf einem Wafer untersucht wird, wobei eine Zählung von Null ideal ist. Der Konkretheit halber gehen wir davon aus, dass die angegebenen Daten aus der Route eines Wafers sowie der Anzahl verschiedener Arten von Defekten bestehen, die pro Wafer auftreten, nachdem der Wafer die in der Route enthaltenen Produktionsschritte abgeschlossen hat. Wir entwickeln zwei zählbasierte Ranking-Algorithmen: (1) den Zählregressionsalgorithmus und (2) den binären Ranking-Algorithmus.

Es ist auch zu beachten, dass es in vielen Prozessen aus Sicht grundlegender Poisson-basierter Modelle eine große Anzahl von Produkten mit „übermäßigen Nullstellen“ gibt. Diese Streuung kann mit Techniken wie dem Hinzufügen von Interaktionsvariablen, zusätzlichen Variablen und sogar dem Entfernen von Ausreißern schwer zu erfassen sein. Zählregressionsmethoden ermöglichen es uns, wie wir im nächsten Abschnitt sehen werden, diese Überdispersion effektiv zu erfassen und bessere Modelle zu erstellen.

Wir führen für jeden Fehlertyp eine separate Regression für jedes Tool gemäß dem unten beschriebenen Regressionsmodell durch. Angenommen, der Datensatz hat m Schritte. Sei \({n_{j}}\) die Anzahl der Werkzeuge im Schritt \(j \in \{1,2,\ldots ,m\}\), \(l \in \{1,2,\ ldots ,{n_{j}}\}\) sei das l-te Werkzeug von Schritt j und nehme an, dass es d verschiedene Arten von Fehlern gibt. Für das l-te Werkzeug des j-ten Schritts sei \({n_{jl}}\) die Anzahl der entsprechenden Abtastpunkte aus unserem Datensatz und sei \(I_{jl}\) die Indexmenge dieser Abtastpunkte ( wobei sich ein „Probenpunkt“ auf eine von einem der Wafer zurückgelegte Route und die damit verbundenen Fehlerdaten im Datensatz bezieht). Für den etw. Abtastpunkt in unseren Daten bezeichne \(y_{is}\) die Anzahl der Defekte vom Typ i in den Abtastpunkten (oder Routen) s des Datensatzes, d. h. \(y_{is} \in \ mathbb {Z^{+}}\), wobei \(\mathbb {Z^{+}}\) die Menge der nicht negativen ganzen Zahlen bezeichnet. Sei \(\mu _{ijl}\in \mathbb {R^{+}}\) die durchschnittliche Anzahl von Defekten vom Typ i, die auf Wafern erkannt wurden, die auf Werkzeug l von Schritt j bearbeitet wurden, wobei \(\mathbb { R^{+}}\) bezeichnet die Menge der nichtnegativen reellen Zahlen. Dann,

Wir definieren \(\mu _{ij}\in \mathbb {R^{+}}\) auch wie folgt:

Die Dummy-Variablen \(X_{{jl}}\) seien wie folgt definiert:

Dann ist das Zählregressionsmodell zur Vorhersage der durchschnittlichen Anzahl von Fehlern vom Typ i im Zusammenhang mit Schritt j wie folgt gegeben:

wobei \(g(\cdot )\) die Verknüpfungsfunktion für die Zählregression ist und die \(\beta _{ijl}\) die Regressionskoeffizienten der Dummy-Variablen \(X_{{jl}}\) sind. . Die Linkfunktion kann je nach verwendetem Modell variieren. Jedes \(\beta _{ijl}\) wird unter Verwendung seiner entsprechenden Maximum-Likelihood-Schätzung \(\widehat{\beta }_{ijl}\) geschätzt. Der Achsenabschnitt \(\beta _{ij1}\) gibt die Wirkung des ersten Werkzeugs des j-ten Schritts an (\(j \in \{1,2,\ldots ,m\}\)).

Das Ziel dieses Modells besteht darin, uns dabei zu helfen, die relative Wirkung der verschiedenen Werkzeuge und entsprechenden Schritte auf Fehler zu bestimmen. Um den relativen Beitrag eines einzelnen Werkzeugs innerhalb eines bestimmten Schritts zur Anzahl der Fehler zu bestimmen, setzen wir die Dummy-Variable, die diesem Werkzeug entspricht, auf 1 und die Dummy-Variablen, die allen anderen Werkzeugen in diesem Schritt entsprechen, auf 0. Wenn also \(X_ {j\tilde{l}}=1\) für ein Werkzeug \(\tilde{l}\) von Schritt j und \(X_{j{l}}=0 \ \forall \ l \ne \tilde{l }\) dann Gl. (4) reduziert sich auf:

Verfahren zur Einstufung von Routen basierend auf Fehleranzahldaten mithilfe der Anzahlregression.

Nachdem wir beschrieben haben, wie unser Modell zu interpretieren ist, fahren wir nun mit der Entwicklung des Algorithmus fort. Der erste Schritt besteht darin, ein Regressionsmodell zu finden, das die Fehleranzahldaten am besten beschreibt. Der hierfür entwickelte Algorithmus (dargestellt in Abb. 1) beginnt mit einer Poisson-Regression, die den Logarithmus des erwarteten Werts der Zählungen modelliert. Ein allgemeines Poisson-Regressionsmodell mit Protokollverknüpfung ist:

Unter erneuter Verwendung von (5) erhalten wir für ein bestimmtes Werkzeug l:

Somit kann die Grenzwahrscheinlichkeit des Auftretens von y Fehlern vom Typ i als Auswirkung von Werkzeug l von Schritt j (Anmerkung: Dies bedeutet nicht als direkte Folge von Werkzeug l) mithilfe der Rate \(\mu _{ij{ l}}\) oben über eine Poisson-Wahrscheinlichkeitsmassenfunktion (pmf) erhalten:

In diesem Modell müssen wir die Fehlerdaten auf Überdispersion prüfen, da der Mittelwert und die Varianz eines Zählmodells mit einer Poisson-Verknüpfung gleich sein sollten. Wir schätzen die Überdispersion anhand des Stichprobenmittelwerts und der Stichprobenvarianz \(\widehat{\mu }\) bzw. \(\widehat{\sigma }^2\) des gesamten Defektdatensatzes. Die Defektdaten werden als überdispers kategorisiert, wenn \({\widehat{\sigma }^2} > {\widehat{\mu }}\) oder \(\frac{\widehat{\sigma }^2}{\widehat{ \mu }} > 1\). Der letztere Ausdruck wird als Dispersionsstatistik bezeichnet. Die Analyse der Überdispersion hängt von drei Dingen ab: (1) dem Wert der Dispersionsstatistik, (2) der Anzahl der Beobachtungen im Modell und (3) der Struktur der Daten.

Für die Größe des Datensatzes, mit dem wir gearbeitet haben (\(\ca. 1000\) Stichprobenpunkte) und basierend auf den Empfehlungen in der Literatur ist eine leichte Überdispersion zulässig, solange sie 1,2513 nicht überschreitet.

Wenn die Streuung größer als 1,25 ist, modifizieren wir zunächst das Poisson-Regressionsmodell mithilfe einer Quasi-Likelihood-Anpassung.

Wenn das Modell nicht überstreut ist, lautet die Pearson-Statistik \(\chi ^{2}\) für eine Stichprobe der Größe n:

Wenn die Daten nicht übermäßig spärlich sind und das Modell korrekt ist, dann gilt \(P^{\chi ^{2}}_{ij} \sim \chi ^{2}_{n-n_{p}}\), wobei \(n_{p}\) ist die Anzahl der geschätzten Parameter. Wenn \(P^{\chi ^{2}}_{ij}\) auf mangelnde Anpassung hinweist, die geschätzte Anzahl der Fehler \(\mu _{ijl}\) jedoch ausreichend nahe am wahren Fehlerwert liegt, \(y_{is,s \in I_{jl}}\), d. h. das Modell weist einen niedrigen mittleren quadratischen Fehler oder einen hohen angepassten R-Quadrat-Wert auf, dann erfasst die Stichprobenvarianz möglicherweise die wahre Populationsvarianz des Modells nicht korrekt Daten (vorausgesetzt, die Daten folgen einer Poisson-Verteilung)14. Typisch ist in einem solchen Fall auch, dass das Modell überdispers ist, d. h.:

In diesem Fall besteht eine sinnvolle Abhilfe darin, anzunehmen, dass die Varianz ein multiplikativer Faktor der angenommenen Populationsvarianz für eine Poisson-Verteilung ist, d. h. \(var(y_{s}) = \phi \cdot \mu\) für eine Konstante \(\phi\in\mathbb{R}\). Das Modell mit dieser Anpassung wird als Quasi-Poisson-Modell bezeichnet und beinhaltet die folgende kleine Anpassung der Pearson-Chi-Quadrat-Statistik:

wobei \(\tilde{P}^{\chi ^{2}}_{ij}\) die modifizierte Pearson-Chi-Quadrat-Statistik ist.

Da eine \(\chi ^{2}_{n-n_{p}}\)-Zufallsvariable den erwarteten Wert \(n-n_{p}\) hat, besteht eine einfache Möglichkeit zur Schätzung der Streuung darin, eine \(\ widehat{\phi }_{ij}\), wodurch die Pearson-Chi-Quadrat-Statistik gleich dem Mittelwert der Verteilung ist, der sie folgt. Somit setzen wir:

Um nun zu sehen, wie sich diese Anpassung auf das Modell und die zugehörigen Schätzungen auswirkt, stellen wir fest, dass die Poisson-Verteilung zur Exponentialverteilungsfamilie gehört, die durch Folgendes gegeben ist:

wobei \(\theta = \log (\mu )\), \(\psi =\mu\), \(b(\theta ) = \mu\), \(\phi = 1\), \(\ alpha (\phi )=1\) und \(C(y; \phi ) = - \log (y!)\). Die durch (12) gegebene Varianzanpassung \(\phi\) ist der Dispersionsparameter \(\phi\) in (13). Diese Varianzanpassung modifiziert folglich (13) zur Exponentialfamilie \(f(y; \theta , \widehat{\phi })\), die möglicherweise nicht mehr zu Eins integriert und einfach als nützliche Modifikation der Likelihood-Funktion betrachtet werden sollte \(l(\cdot ) = log(f(\cdot ))\)(siehe14). Die Hauptfrage ist jedoch: Wie wirkt sich diese Transformation auf unsere Parameterschätzungen im Zählregressionsmodell nach (4) aus? Die Schätzungen für das ursprüngliche Poisson-Regressionsmodell nach (4) werden über die Methode der Maximum-Likelihood-Schätzung (MLE) ermittelt. Daher werden sie MLE-Schätzungen genannt und es kann gezeigt werden, dass sie erhalten werden, indem die folgenden partiellen Ableitungen für jedes Werkzeug l in jedem Schritt j für jeden Defekt auf Null gesetzt werden:

wobei \({\varvec{\beta _{ijl}}}\) und \({\varvec{y_{ijl}}}\) Vektoren des Parametersatzes bzw. aller Datenpunkte sind. Wenn sich daher nur die Varianz mit einem durch (12) gegebenen Anpassungsfaktor von \(\widehat{\phi }\) ändert, werden die obigen MLE-Schätzungen nur um einen Faktor von \(\widehat{\phi }\) skaliert folgt:

Somit bleiben die MLE-Schätzungen für \(\widehat{\beta }_{ijl}\) unverändert.

Dies impliziert, dass die Parameterschätzungen des Zählregressionsmodells (4) unverändert bleiben, aber die Wahrscheinlichkeitsteststatistiken und Abweichungsunterschiede (wie die Pearson-Chi-Quadrat-Teststatistik) müssen durch \(\widehat{\phi }\) geteilt werden. bevor die Güte der Anpassung mithilfe einer „geeigneten \(\chi ^{2}\)-Verteilung“ bewertet wird (siehe 14). Nach der Quasipoisson-Anpassung erstellen wir ein negatives binomiales Regressionsmodell, das eine noch größere Überdispersion der Zähldaten berücksichtigen kann. Zwischen den Quasipoisson-bereinigten und negativen binomialen Regressionsmodellen wählen wir das bessere Modell anhand der unten beschriebenen Informationskriterienstatistiken aus.

Für die negative binomiale Regression verwenden wir die beliebteste Parametrisierung, ein Poisson-Gamma-Mischungsmodell, das zu einer Varianzfunktion führt, die im Mittel quadratisch ist. Dies ist als NB-2-Modell bekannt, dessen Ableitung und Motivation in Abschnitt 15 beschrieben werden. Der NB-2-PMF mit Mittelwert \(\mu\) und Varianz \(\mu + \alpha \mu ^{2}\) ist:

Das entsprechende Zählregressionsmodell mit einem \(\log\)-Link ist das gleiche wie in (6). Es kann jedoch auch sein, dass dieses Modell nicht gut passt (d. h. es kann einen p-Wert \(\ge 0,05\) haben). Einer der Gründe für eine schlechte Anpassung kann darin liegen, dass die negative binomiale (NB-2) Überdispersion (die auch eine Poisson-Überdispersion impliziert) der geschätzten Varianz der vorhergesagten Fehlerraten (bei der Modellierung jedes einzelnen Fehlers vom Typ i und jedes einzelnen Schritts j) vorliegt ) ist größer als \(\mu + \alpha \mu ^{2}\)13,15. Wenn die bisher betrachteten Modellvarianten keine gute Anpassung an die Daten liefern, müssen wir möglicherweise ein anderes Problem berücksichtigen: Überdispersion kann auf zu viele Nullstellen zurückzuführen sein. Daher arbeiten wir als letzten Schritt mit Hürdenmodellen. Das Hürdenmodell ist ein zweiteiliges Modell. Der erste Teil ist ein Bernoulli-Prozess, der die Wahrscheinlichkeit, null Fehler zu erhalten, im Vergleich zu einer positiven Anzahl von Fehlern modelliert (unabhängig von der Größe dieser Zahl). Dies kann mithilfe eines Probit-, Logit- oder komplementären Log-Log-Modells erreicht werden. Der zweite Teil umfasst die Modellierung von Zähldaten als Null-abgeschnittenes Poisson-, geometrisches oder negatives Binomialmodell. In unserem Rahmen verwendeten wir eine Probit-Verknüpfung für das Bernoulli-Modell und eine Poisson- oder negative Binomialverteilung für die positiven Zählungen. Somit haben wir zwei Arten von Hürdenmodellen, eines mit einer Bernoulli-Hürde und einem Poisson-Zählverfahren und das andere mit einer Bernoulli-Hürde und einem negativen Binomialzählverfahren. Für die durch (8) gegebene Poisson-Verteilung wird die Wahrscheinlichkeit einer Nullzählung (\(e^{-\mu _{ijl}}\)) von eins subtrahiert und die verbleibenden Wahrscheinlichkeiten werden unter Verwendung dieser Differenz neu skaliert. Eine Null-abgeschnittene Poisson-Verteilung (ZTP) hat also die PMF:

Ein ähnlicher Prozess wird für einen auf Null gekürzten negativen Binomialzählprozess befolgt. Wir haben Hürdenmodelle anderen Modellen wie reinem ZTP, einem Null-inflationierten Poisson-Modell oder einem negativen Binomialprozess (ZIP oder ZINB) vorgezogen. Das reine ZTP-Modell ist nicht sinnvoll, da es Nullzählungen völlig außer Acht lässt. Allerdings sind Nullzählungen für uns wichtig, da eine hohe Nullzählung auf einen besseren Prozess hinweist. Wie die Hürdenmodelle sind ZIP und ZINB zweiteilige Modelle, die sowohl aus einem Bernoulli-Prozess als auch einem Zählprozess bestehen. Im Gegensatz zu Hürdenmodellen gehen diese Modelle jedoch davon aus, dass die Nullzählungen sowohl aus dem Binär- als auch aus dem Zählprozess resultieren. Hürdenmodelle hingegen trennen die Modellierung von Nullen von der von Zählungen, da sie davon ausgehen, dass nur ein Prozess Nullen generiert. Daher bevorzugen wir Hürdenmodelle und verfolgen nicht die Modelle ZTP, ZIP und ZINB. Bei der Bestimmung der Modellanpassung können Hürdenmodelle untereinander und mit den anderen Modellen in diesem Abschnitt mithilfe der Statistik des Alkaike Information Criterion (AIC) verglichen werden, wenn die Stichprobengröße n kleiner als 8 ist. Andernfalls kann das Bayes'sche Informationskriterium (BIC) verwendet werden ) ist empfohlen. Dies liegt daran, dass der BIC die Modellkomplexität stärker beeinträchtigt als der AIC für \(n\ge 8\), dh wenn die Stichprobengröße groß ist16. AIC und BIC sind wie folgt definiert:

wobei \(n_{p}\) die Anzahl der Modellparameter ist, \(\widehat{{\varvec{\theta }}}\) ein Vektor von MLE-Parameterschätzungen ist, die durch Maximieren von \(l(\widehat{{ \varvec{\theta }}})\), was die Log-Likelihood ist. Somit ist der AIC eine konservative Statistik zur Messung der Modellanpassung, quantifiziert durch \(l(\widehat{{\varvec{\theta }}})\) und der Modellkomplexität, quantifiziert durch s. Es ist zu beachten, dass das Quasipoisson-Modell die AIC-Statistik nicht generiert, da sie nicht mit der MLE-Methode abgeleitet wird. Vielmehr wird die Quasi-Likelihood-Korrektur (siehe (11)–(15)) des AIC-Modellauswahlkriteriums durch den Quasi-AIC (QAIC) gegeben:

wobei \(\widehat{\phi }\) der geschätzte Streuungsparameter für die Quasi-Likelihood ist. Die Verwendung von QAIC ist jedoch nur dann sinnvoll, wenn alle mit dem Quasipoisson-Modell verglichenen Modelle einen gemeinsamen Wert von \(\widehat{\phi }\) verwenden. Der Einfachheit halber verwenden wir weiterhin den p-Wert als Maß zur Bestimmung der Signifikanz des Quasipoisson-Modells. Das Verfahren zur Durchführung einer Zählregressionsanalyse für Defektzähldaten ist in Abb. 1 dargestellt. Ausführlichere Erläuterungen zu jedem dieser Modelle finden Sie in Hilbe13.

Wir haben im Algorithmus einige Annahmen getroffen, um Komplexität bei der Modellauswahl zu vermeiden:

Wenn der p-Wert größer oder gleich 0,05 war, wurde ein alternatives Modell verwendet, selbst wenn die Streuung etwa 1,25 betrug.

Wenn die Streuung nicht ungefähr 1,25 betrug, wurde ein alternatives Modell verwendet, selbst wenn der p-Wert \(< 0,05\) war.

Um Modelle zu vergleichen, die keinen AP-Wert generieren, wird bei \(n<8\) der AIC verwendet, andernfalls wird der BIC verwendet. In unserem Verfahren verwenden wir diese Kriterien beispielsweise, um Hürdenmodelle mit Poisson- und NB-2-Zählungsmodellen zu vergleichen.

Sobald wir das am besten geeignete Zählregressionsmodell identifiziert haben, erhalten wir die Koeffizienten, die die Wirkung der verschiedenen Tools bei jedem Schritt beschreiben, aus der folgenden logistischen Regressionsgleichung:

Nach der Bestimmung der Koeffizienten transformieren wir die Gleichung wie folgt, um die durchschnittlichen Fehlerraten für die verschiedenen Werkzeuge zu erhalten:

Somit ist die durchschnittliche Anzahl von Fehlern vom Typ i für Werkzeug l von Schritt j gegeben durch:

Für Hürdenmodelle haben wir zwei Sätze von Koeffizienten für jedes Werkzeug: (1) die Koeffizienten des binären Modells (Bernoulli mit einer logistischen Verknüpfung, dargestellt durch (24)) und (2) das Null-Trunked-Count-Modell (Poisson oder negatives Binomial mit a). logistische Verbindung dargestellt durch (21)). In (24) unten ist \(\frac{p_{{ij}}}{1 - p_{{ij}}}\) das Wahrscheinlichkeitsverhältnis des Auftretens eines Fehlers i, wenn ein Werkzeug des j-ten Schritts in der Route vorhanden ist :

Nach der Bestimmung der \(\alpha\)-Koeffizienten transformieren wir (24) wie folgt, um die durchschnittlichen Fehlerraten für verschiedene Werkzeuge zu erhalten:

Somit ist das Wahrscheinlichkeitsverhältnis von Fehlern vom Typ i für Werkzeug l von Schritt j:

Schließlich beträgt die Wahrscheinlichkeit eines Defekts i, wenn Werkzeug l im j-ten Schritt verwendet wird:

Wir können dann das Gesetz der iterierten Erwartung verwenden, um die erwartete Anzahl von Fehlern vom Typ i zu erhalten, die vom l-ten Werkzeug erzeugt werden, das den j-ten Schritt darstellt, aus den mit (23) generierten Null-abgeschnittenen Zählungs-Regressionskoeffizienten und den Bernoulli-Logistik-Regressionskoeffizienten aus ( 27). Die erwartete Anzahl von Fehlern des Typs i, die vom l-ten Werkzeug im j-ten Schritt erzeugt werden, ist die Summe aus der Wahrscheinlichkeit, eine positive Anzahl von Fehlern zu verursachen, multipliziert mit der durchschnittlichen Anzahl positiver Fehler, die vom entsprechenden Werkzeug erzeugt werden, und der Wahrscheinlichkeit, dass keine Fehler auftreten Fehler multipliziert mit 0. Zusammenfassend haben wir

Sobald wir die erwartete Anzahl von Fehlern erhalten haben, die von jedem Werkzeug für jede Schritt-Fehler-Kombination erzeugt werden, fahren wir mit der Rangfolge der Routen fort, indem wir den unter „Globales Routenranking“ beschriebenen Algorithmus verwenden.

In diesem Unterabschnitt betrachten wir eine alternative Möglichkeit, die lokale Bewertung von Werkzeugen durchzuführen, um für jedes einzelne Werkzeug bei jedem Schritt eine Rangfolge zu erstellen. In diesem Rahmen besteht die Messgröße darin, ob ein Werkzeug Fehler erzeugt oder nicht. Daher ist die genaue Anzahl der Defekte unerheblich, aber die Wahrscheinlichkeit, dass eine Route dazu führt, dass ein Wafer, den sie bearbeitet, einen Defekt einer bestimmten Art aufweist, ist wichtig.

Anstelle des in den vorherigen Abschnitten beschriebenen komplexen Regressionsalgorithmus zur Ermittlung der erwarteten Anzahl von Fehlern, die von jedem Werkzeug unter jeder Schritt-Fehler-Kombination erzeugt werden, entwickeln wir einen einfacheren Algorithmus. Wir berechnen die Wahrscheinlichkeit \(q_{ijl}\), die hier eine andere Definition hat als \(p_{ijl}\), die im vorherigen Abschnitt zum Zähl-Regressionsalgorithmus beschrieben wurde. Dies ist die Wahrscheinlichkeit, dass bei Verwendung von Werkzeug l in Schritt j keine Fehler vom Typ i auftreten. Diese Menge berechnen wir im Folgenden:

Die restlichen Terme \(s,I_{jl},\mathbb {Z^{+}},y_{is},n_{jl},d,m\) und \(n_{j}\) haben die dieselben Bedeutungen wie im vorherigen Abschnitt.

Schließlich verwenden wir, genau wie im wertvollen Abschnitt, diese für jeden Schritt erhaltenen Wahrscheinlichkeiten (nennen wir sie Tool-Scores für die Einheitlichkeit zwischen den beiden Algorithmen) und berechnen die Routenränge mithilfe des unter „Globales Routenranking“ beschriebenen Verfahrens. Das Flussdiagramm in Abb. 2 zeigt den Algorithmus.

Der binäre Ranking-Algorithmus zum Ranking von Routen anhand von Fehleranzahldaten.

Für jeden Fehler und jede Route erstellen wir zunächst eine lokale Bewertung, indem wir die durchschnittlichen Fehler (im Fall der Zählregressionsrangfolge) oder die durchschnittliche Fehlerwahrscheinlichkeit (im Fall der binären Rangfolge) für jedes Werkzeug auf der gegebenen Route weiter mitteln der gegebene Mangel. Wir nennen dies den lokalen Score, da er spezifisch für einen Fehlertyp ist. Somit erhalten wir für jeden Defekt i eine Punktzahl \(s_{it}\) der R Routen, wobei \(i \in \{1,2,\ldots ,d\}\) und \(t \in \{1,2,\ldots ,R\}\).

Schließlich berechnen wir den globalen Rang \(r_{t}, t \in \{1,2,\ldots ,R\}\) der Routen, indem wir einen gewichteten Durchschnitt der lokalen Bewertungen für die Routen bilden (nennen wir Dies ist der Durchschnitt der Gesamtpunktzahl) und eine Rangfolge von 1 bis N (\(N\le R\), da für einige Routen die Möglichkeit besteht, dass die Ränge gleich sind). Hier entspricht Rang 1 der Route(n), die mit der kleinsten Anzahl (oder Wahrscheinlichkeit) durchschnittlicher Fehler verbunden ist, und Rang N entspricht der Route(n), die der/den maximalen Anzahl (oder Wahrscheinlichkeit) durchschnittlichen Fehlern zugeordnet ist/sind. Die Verwendung der lokalen Bewertungen anstelle lokaler Ränge trägt dazu bei, die Eindeutigkeit globaler Routenränge zu steigern, da die einfache Rangfolge der Summe der lokalen Ränge dazu führen kann, dass viel mehr Routen denselben Rang haben, während das Summieren lokaler Bewertungen eine größere Eindeutigkeit der globalen Bewertungen ermöglicht also in globalen Rängen. Die Auswahl der Gewichte \(w_{i}\), \(i \in \{1,2,\ldots ,d\}\) für jeden Fehler, um den gewichteten Durchschnitt zu berechnen, liegt bei den Beteiligten und Entscheidungsträgern . Unsere Formulierung ist in den folgenden Gleichungen zusammengefasst:

Dabei ist \(s_{ijlt}\) die lokale Bewertung des l-ten Werkzeugs beim j-ten Schritt in der t-ten Route, die für den i-ten Defekt erhalten wurde. Ein Beispiel für gewichtete globale Routenränge unter Verwendung der Zählregressions- und binären Rangfolgemethode ist in den Tabellen 4 bzw. 5 dargestellt.

Der Halbleiterdatensatz, mit dem wir gearbeitet haben, hatte vier Fehlertypen. Es wurden auch Wafer erfasst, bei denen keine Mängel festgestellt wurden. Die Routen im Datensatz bestanden alle aus elf Schritten, und jeder Schritt verfügte über einen eigenen Satz an Werkzeugen. Die Schritte 1 bis 11 hatten jeweils 5, 14, 5, 14, 11, 5, 11, 9, 4, 10 und 13 verschiedene Werkzeuge. Alle möglichen Kombinationen dieser unterschiedlichen Werkzeuge in jedem der elf Schritte erzeugten ungefähr \(1,4\times 10^{10}\) mögliche Routen, während nur 652 davon tatsächlich in unserem Datensatz mit 2 Monaten Fab-Daten vertreten waren.

Wir folgen den Schritten der Zählregression, wie sie im Flussdiagramm in Abb. 1 dargestellt sind, und berechnen Metriken für die verschiedenen verwendeten Modelle, einschließlich der Streuung, des p-Werts und der AIC-Statistiken. Ein Beispiel ist in Tabelle 1 zu sehen. Sobald das beste Modell erhalten wurde, werden die Werkzeuge unter jedem Schritt separat bewertet, wobei der Regressionsalgorithmus für die beste Anzahl für jede Fehler-Schritt-Kombination verwendet wird (siehe Tabelle 2 für Beispielergebnisse). Außerdem leiten wir mithilfe des binären Ranking-Algorithmus alle Tool-Scores neu ab. Eine Auswahl dieser Ergebnisse finden Sie in Tabelle 2. Anschließend erhalten wir die lokalen und globalen Routenbewertungen und -ränge, wie in den Tabellen 3, 4 und 5 dargestellt. Detailliertere Berechnungsergebnisse zu diesem Datensatz finden Sie in17. Darüber hinaus werden die von den beiden verschiedenen Algorithmen erhaltenen Ränge mithilfe von Rangkorrelationen verglichen, die im nächsten Abschnitt beschrieben und diskutiert werden.

In diesem Abschnitt besprechen wir gängige Methoden zum Vergleichen zweier Rankings für eine Reihe von Objekten. Anschließend verwenden wir diese Metriken, um verschiedene Routenranking-Ansätze zu vergleichen. Angenommen, es gibt t Elemente, denen in der Menge \(\{1, \ldots , t\}\) eine Rangfolge zugewiesen wird. Für ein festes Element i seien \(\mu (i)\) und \(\nu (i)\) die Ränge, die mit zwei verschiedenen Methoden ermittelt wurden.

Wir betrachten zunächst die Spearman-Distanz. In der Form ähnelt es einem euklidischen Abstand und ist gegeben durch:

Beachten Sie, dass es sich nicht um eine geeignete Distanzmetrik handelt, da sie die Dreiecksungleichung nicht erfüllt. Dies führt uns zur Spearman-Korrelation, gegeben durch:

Wo

\(c_{S}\) ist als durchschnittliche Spearman-Distanz und \(M_{S}\) als maximale Spearman-Distanz bekannt.

Die Kendall-Distanz misst die Anzahl diskordanter Paare, also wie oft die Rangfolge zweier Elemente vertauscht wird. Es ist gegeben durch:

Die Kendall-Korrelation ist gegeben durch:

Wo

\(c_{K}\) ist der durchschnittliche Kendall-Abstand und \(M_{K}\) ist der maximale Kendall-Abstand.

Die Spearman- und Kendall-Rangkorrelationen zwischen den beiden in diesem Artikel diskutierten Rankingmethoden sind in Tabelle 6 aufgeführt. Wir können sehen, dass beide Korrelationen statistisch signifikant und sehr niedrig sind: Spearman-Rang bei 27,2 % und Kendall-Tau bei 18,49 %. Dies impliziert, dass sich die Rangfolge nach reiner Wahrscheinlichkeit (binäre Rangfolge) stark von der Rangfolge unterscheidet, bei der sowohl die Wahrscheinlichkeit als auch das Ausmaß eines Fehlers berücksichtigt wird (auf Zählregression basierende Rangfolge). Da das Ground-Truth-Ranking nicht bekannt ist, ist es schwer zu sagen, welches Ranking besser ist. Wir empfehlen jedoch, dass der Stakeholder entscheidet, woran er interessiert ist. In der Schlussfolgerung gehen wir auf die verschiedenen Anwendungsfälle ein, die für Stakeholder von Interesse sind.

Unser Ansatz und unsere Modellierung weisen mehrere Einschränkungen auf, die auch zahlreiche Möglichkeiten für zukünftige Arbeiten bieten. Erstens vergleichen wir unsere Algorithmen aus folgenden Gründen nicht mit früheren Algorithmen in der Literaturrecherche. Methoden wie AHP und PROMTHEE nutzen viele qualitative Merkmale, auf die wir in unserem Datensatz keinen Zugriff hatten. Daher konnten wir diese Ergebnisse nicht reproduzieren. Viele Autoren haben ihre Algorithmen auch nicht als Open Source bereitgestellt, was Vergleiche aufgrund mangelnder Reproduzierbarkeit erschwert. Auch in der Literatur werden Autoren beobachtet, die ihre Algorithmen mit ihrer eigenen früheren Arbeit vergleichen, jedoch nicht mit anderen Modellen. Darüber hinaus konzentrieren sich nahezu alle bisherigen Arbeiten explizit auf die Bewertung von Tools und ihr Ziel besteht darin, die Tools mit der schlechtesten Leistung zu identifizieren. Wir haben unseren Code auf Github veröffentlicht (Link für den Überprüfungsprozess entfernt, um die Anonymität der Autoren zu wahren, wird nach dem Überprüfungsprozess wieder hinzugefügt), für den Fall, dass Autoren künftig ihre Algorithmen mit unseren vergleichen möchten.

Zweitens berücksichtigten die von uns getesteten Modelle nicht die statistische Interaktion zwischen verschiedenen Tools. Der Grund dafür war eine explosionsartige Zunahme der Anzahl von Parametern und Recheneinschränkungen, seit wir in R entwickelt und getestet haben. Dies sollte jedoch möglich sein, dies in fortschrittlicheren Statistiksoftwares und mit ausreichend Rechenleistung zu testen. Es gibt definitiv eine Interaktion zwischen den Werkzeugen, daher könnte es Paare von Werkzeugen geben, die überlegen sind. Eine Möglichkeit, die Anzahl der Parameter zu reduzieren, besteht darin, nur aufeinanderfolgende Werkzeugpaare zu berücksichtigen.

Drittens vergleichen wir die zählbasierten und binären Algorithmen nicht direkt, da sie unterschiedlichen Zwecken dienen. Obwohl der Zählregressionsalgorithmus komplexer ist als der binäre Ranking-Algorithmus, kann der Algorithmus für den von uns getesteten Datensatz innerhalb von Minuten Rankings erstellen und sollte daher dennoch für den Einsatz in tatsächlichen Fab-Umgebungen geeignet sein. Tatsächlich war die Berechnungszeit für unseren Datensatz für beide Ranking-Methoden ungefähr gleich. Somit hängt die Wahl der Methode vom jeweiligen Anwendungsfall ab. Wenn das Ziel des Entscheidungsträgers darin besteht, die niedrigste Gesamtzahl an Fehlern zu erzeugen, ist der Zählregressionsalgorithmus besser geeignet. Wenn das Ziel jedoch darin besteht, die größtmögliche Anzahl defektfreier Wafer zu produzieren, ist der binäre Algorithmus vorzuziehen.

Für die zukünftige Forschung besteht ein wichtiger Schritt darin, die Algorithmen an größeren Datensätzen zu testen. Mit den Fortschritten beim maschinellen Lernen könnten, je mehr Daten verfügbar sind, auch komplexere Ranking-Algorithmen wie RankNet, LambdaRank oder LambdaMART eingesetzt werden18,19,20. Bei der Verwendung von Regressions- oder maschinellen Lernmodellen können Erklärbarkeitsmodelle wie Local Interpretable Model-Agnostic Explanations (LIME)21 und SHapley Additive ExPlanations (SHAP)22 verwendet werden, um zu verstehen, welche Tools den Rang einer Route nach oben oder unten treiben. Eine kontrafaktische Analyse mit diesen Erklärungsmethoden könnte auch hilfreich sein, um den Zweck dieser Arbeit zu erweitern und zu erkennen, an welchen Werkzeugen gearbeitet werden könnte, damit ihr Durchsatz von höherer Qualität ist. Darüber hinaus wäre es nützlich, eine Methodik zu entwickeln, um fortlaufende oder Online-Aktualisierungen von Rankings durchzuführen, möglicherweise unter Verwendung einer Art Glättung oder eines Bayes'schen Ansatzes.

Die während der aktuellen Studie generierten und/oder analysierten Datensätze sind auf begründete Anfrage beim entsprechenden Autor erhältlich.

Chang, C.-W., Wu, C.-R., Lin, C.-T. & Chen, H.-C. Eine Anwendung von AHP und Sensitivitätsanalyse zur Auswahl der besten Schneidemaschine. Berechnen. Ind. Eng. 52, 296–307. https://doi.org/10.1016/j.cie.2006.11.006 (2007).

Artikel Google Scholar

Chang, CW, Wu, CR, Lin, CT und Chen, HC. Bewertung und Kontrolle der Qualität des Siliziumwafer-Schneidens mithilfe einer Fuzzy-Analysehierarchie und Sensitivitätsanalyse. Int. J. Adv. Hersteller Technol. 36, 322–333. https://doi.org/10.1007/s00170-006-0831-9 (2008).

Artikel Google Scholar

Chang, C.-W., Wu, C.-R. & Chen, H.-C. Analytische Netzwerkprozessentscheidungen zur Beurteilung der Schneidemaschine im Hinblick auf Präzision und Kontrolle der Waferqualität. Roboter. Berechnen. Integrat. Hersteller 25, 641–650. https://doi.org/10.1016/j.rcim.2008.05.005 (2009).

Artikel Google Scholar

Rao, RV & Patel, B. Entscheidungsfindung in der Fertigungsumgebung mithilfe einer verbesserten Promethee-Methode. Int. J. Prod. Res. 48, 4665–4682. https://doi.org/10.1080/00207540903049415 (2010).

Artikel MATH Google Scholar

Chakraborty, S. Anwendungen der Moora-Methode zur Entscheidungsfindung im Fertigungsumfeld. Int. J. Adv. Hersteller Technol. 54, 1155–1166. https://doi.org/10.1007/s00170-010-2972-0 (2011).

Artikel Google Scholar

Chien, C.-F., Chang, K.-H. & Wang, W.-C. Eine empirische Studie zum Design-of-Experiment-Data-Mining zur Ertragsverlustdiagnose bei der Halbleiterfertigung. J. Intell. Hersteller 25, 961–972. https://doi.org/10.1007/s10845-013-0791-5 (2014).

Artikel Google Scholar

Hessinger, U., Chan, WK & Schafman, BT Data Mining zur Signifikanz in der Ertragsdefekt-Korrelationsanalyse. IEEE Trans. Halbleiter. Hersteller 27, 347–356. https://doi.org/10.1109/TSM.2014.2337251 (2014).

Artikel Google Scholar

Madić, M., Radovanović, M. & Manić, M. Anwendung der Rov-Methode zur Auswahl von Schneidflüssigkeiten. Entscheidung. Wissenschaft. Lette. 20, 20 (2016).

Google Scholar

Nestic, S., Lampón, JF, Aleksic, A., Cabanelas, P. & Tadic, D. Ranking von Herstellungsprozessen aus Sicht des Qualitätsmanagements in der Automobilindustrie. Expertensystem. 36, 20. https://doi.org/10.1111/exsy.12451 (2019).

Artikel Google Scholar

Khaira, A. Ein zweistufiger Entscheidungsansatz zur Identifizierung kritischer Geräte unter Verwendung eines analytischen Hierarchieprozesses und einer Präferenzranking-Organisationsmethode für Anreicherungsbewertungen mit verbesserter Normalisierung. Ing. Rev. 39, 174–185. https://doi.org/10.30765/er.39.2.7 (2019).

Artikel Google Scholar

Lyu, J., Liang, CW & Chen, P.-S. Ein datengesteuerter Ansatz zur Identifizierung möglicher Herstellungsprozesse und Produktionsparameter, die Produktfehler verursachen: Eine Fallstudie eines Dünnschichtfilterunternehmens. IEEE Access 8, 49395–49411. https://doi.org/10.1109/ACCESS.2020.2974535 (2020).

Artikel Google Scholar

Krulčcić, E., Pavletić, D., Dobovičcek, S. & Žic, S. Multikriterienmodell für die Auswahl neuer Prozessanlagen in der Gussherstellung: Eine Fallstudie. Technik. J. 16, 170–177. https://doi.org/10.31803/tg-20220407112829 (2022).

Artikel Google Scholar

Hilbe, JM Negative Binomial Regression 2. Aufl. (Cambridge University Press, 2011).

Buchen Sie MATH Google Scholar

Miller, RB Maximum-Likelihood-Schätzung und Inferenz (Wiley, 2011).

Buchen Sie Google Scholar

Cameron, AC & Trivedi, PK Regressionsanalyse von Zähldaten (Cambridge University Press, 1998).

Buchen Sie MATH Google Scholar

Zheng, X. & Loh, W.-Y. Konsistente Variablenauswahl in linearen Modellen. Marmelade. Stat. Assoc. 90, 151–156. https://doi.org/10.1080/01621459.1995.10476497 (1995).

Artikel MathSciNet MATH Google Scholar

Gupta, S. Dynamische Entscheidungsfindung unter Unsicherheit für die Halbleiterfertigung und das Gesundheitswesen. Ph.D. Diplomarbeit, Graduiertenprogramm in Operations Research und Industrial Engineering, University of Texas at Austin (2019).

Burges, C. et al. Lernen, mithilfe des Gradientenabstiegs zu ranken. In Proceedings of the Twenty Second International Conference on Machine Learning (2005).

Burges, C., Ragno, R. & Le, Q. Lernen, mit nicht glatten Kostenfunktionen zu ranken. In Advances in Neural Information Processing Systems Vol. 19 (Hrsg. Schölkopf, B. et al.) (MIT Press, 2006).

Google Scholar

Burges, C. Von Ranknet über Lambdarank bis Lambdamart: Ein Überblick. Bd. 82 (2010).

Ribeiro, MT, Singh, S. & Guestrin, C. „Warum sollte ich Ihnen vertrauen?“: Erklären der Vorhersagen eines Klassifikators. https://doi.org/10.48550/ARXIV.1602.04938 (2016).

Lundberg, S. & Lee, S.-I. Ein einheitlicher Ansatz zur Interpretation von Modellvorhersagen. https://doi.org/10.48550/ARXIV.1705.07874 (2017).

Referenzen herunterladen

Diese Autoren trugen gleichermaßen bei: Shreya Gupta, John J. Hasenbein und Byeongdong Kim.

Graduiertenprogramm in Operations Research und Industrial Engineering, Fakultät für Maschinenbau, University of Texas at Austin, Austin, TX, 78712, USA

Shreya Gupta, John J. Hasenbein und Byeongdong Kim

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Alle Autoren haben gleichermaßen dazu beigetragen.

Korrespondenz mit Shreya Gupta, John J. Hasenbein oder Byeongdong Kim.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Gupta, S., Hasenbein, JJ & Kim, B. Ranking-Routen in Halbleiter-Wafer-Fabriken. Sci Rep 13, 13267 (2023). https://doi.org/10.1038/s41598-023-39187-2

Zitat herunterladen

Eingegangen: 26. Mai 2023

Angenommen: 20. Juli 2023

Veröffentlicht: 15. August 2023

DOI: https://doi.org/10.1038/s41598-023-39187-2

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.