Unterschied zwischen AIC und BIC Unterschied zwischen
AIC und BIC werden häufig in Modellauswahlkriterien verwendet. AIC bedeutet Akaikes Informationskriterien und BIC bedeutet Bayessche Informationskriterien. Obwohl diese beiden Begriffe die Modellauswahl betreffen, sind sie nicht identisch. Man kann auf Unterschiede zwischen den beiden Ansätzen der Modellauswahl stoßen.
Akaikes Informationskriterien wurden 1973 und Bayes'sche Informationskriterien 1978 entwickelt. Hirotsugu Akaike entwickelte Akaikes Informationskriterien, während Gideon E. Schwarz das Bayessche Informationskriterium entwickelte.
Die AIC kann als Maß für die Anpassungsgüte eines geschätzten statistischen Modells bezeichnet werden. Der BIC ist eine Art von Modellauswahl unter einer Klasse von parametrischen Modellen mit einer unterschiedlichen Anzahl von Parametern.
Beim Vergleich der Bayesschen Informationskriterien und der Akaike-Informationskriterien liegt die Buße für zusätzliche Parameter eher im BIC als im AIC. Im Gegensatz zur AIC benachteiligt der BIC freie Parameter stärker.
Akaikes Informationskriterien versuchen generell, ein unbekanntes Modell zu finden, das eine hohe dimensionale Realität hat. Dies bedeutet, dass die Modelle keine echten Modelle in AIC sind. Auf der anderen Seite stoßen die Bayes'schen Informationskriterien nur auf True-Modelle. Es kann auch gesagt werden, dass Bayes'sche Informationskriterien konsistent sind, während Akaikes Informationskriterien nicht so sind.
Wenn Akaikes Informationskriterien die Gefahr der Ausstattung anzeigen. Die Bayes'schen Informationskriterien werden die Gefahr darstellen, dass sie unterlaufen würde. Obwohl BIC im Vergleich zu AIC toleranter ist, zeigt es bei höheren Zahlen weniger Toleranz.
Akaikes Informationskriterien eignen sich gut, um der Kreuzvalidierung asymptotisch zu entsprechen. Im Gegenteil, die Bayes'schen Informationskriterien sind gut für eine konsistente Schätzung.
Zusammenfassung
1. AIC bedeutet Akaikes Informationskriterien und BIC bedeutet Bayessche Informationskriterien.
2. Akaikes Informationskriterien wurden 1973 und die Bayesschen Informationskriterien 1978 festgelegt.
3. Wenn die Bayes'schen Informationskriterien und die Informationskriterien der Akaike verglichen werden, ist die Strafe für zusätzliche Parameter mehr in BIC als in AIC.
4. Akaikes Informationskriterien versuchen im Allgemeinen ein unbekanntes Modell zu finden, das eine hohe dimensionale Realität hat. Auf der anderen Seite stoßen die Bayes'schen Informationskriterien nur auf True-Modelle.
5. Die Bayes'schen Informationskriterien sind konsistent, während die Informationskriterien von Akaike nicht so sind.
6. Akaikes Informationskriterien sind gut dafür geeignet, der Kreuzvalidierung asymptotisch zu entsprechen. Im Gegenteil, die Bayes'schen Informationskriterien sind gut für eine konsistente Schätzung.
7. Obwohl BIC im Vergleich zu AIC toleranter ist, zeigt es bei höheren Zahlen weniger Toleranz.
8. Im Gegensatz zur AIC benachteiligt der BIC freie Parameter stärker.
- oben iFrame -> - unterer iFrame ->//