משפט גאוס-מרקוב

מתוך המכלול, האנציקלופדיה היהודית
קפיצה לניווט קפיצה לחיפוש

בערך זה
נעשה שימוש
בסימנים מוסכמים
מתחום המתמטיקה.
להבהרת הסימנים
ראו סימון מתמטי.

בסטטיסטיקה, משפט גאוס-מרקוב מספק את ההצדקה המתמטית לשימוש באומד הריבועים הפחותים במסגרת מודל של רגרסיה לינארית. משפט זה קובע כי תחת הנחות המודל — שגיאות בעלות תוחלת אפס, שונות קבועה ובלתי מתואמות — האומד חסר ההטיה הלינארי הטוב ביותר הוא האומד של שיטת הריבועים הפחותים, במובן זה שהשונות שלו היא הנמוכה ביותר מבין שאר האומדים הלינאריים חסרי ההטיה. למשל אומד ג'יימס-שטיין הוא אומד מוטה ששונותו נמוכה יותר.

ידוע כי המתמטיקאי הגרמני קרל פרידריך גאוס עשה שימוש בשיטת הריבועים הפחותים כבר בשנת 1795, והיא פורסמה על ידו רק בשנת 1809. הוכחה למשפט זה סיפק גאוס בשנת 1823.[1] המתמטיקאי הרוסי אנדריי מרקוב פרסם בשנת 1912 ספר בו תיאר בפירוט ובדיוק רב יותר את השיטה ותיאר את ההוכחה שלה, ועל כן היא קרויה גם על שמו.[1]

נוסח פורמלי

תיאור המודל

נניח מודל מהצורה 𝐲=Xβ+ε בכתיב וקטורי. כלומר, 𝐲,εn,βK,Xn×K, ואז בכתיב מלא המודל הוא, yi=j=1KβjXij+εi עבור i=1,,n.

βj הוא פרמטר קבוע לא ידוע שאותו מחפשים; Xij הוא ערך קבוע ידוע; εi הוא משתנה מקרי המתאר את השגיאה או את ה"רעש", וכתוצאה מכך גם yi הוא משתנה מקרי.

אומד לינארי

אומד לינארי לפרמטר βj הוא לינארי במשתנים y1,,yn, כלומר הוא מהצורה, β^j=c1jy1++cnjyn כאשר המקדמים c1j,,cnj אינם יכולים להיות תלויים בפרמטר βj, אלא רק בערכים הנצפים X1j,,Xnj (אך התלות של המקדמים בערכים הנצפים אינה בהכרח לינארית).

סכום ריבועי השגיאות

אם β^ הוא אומד כלשהו, ונסמן בהתאמה 𝐲^i=j=1Kβ^jXij+εi

טבעי לרצות אומד שממזער את סכום ריבועי השגיאות. כלומר, אומד β^ כזה שממזער את הביטוי, i=1n(yiy^i)2

המשפט

משפט גאוס-מרקוב: אם מתקיימים שלושת התנאים הבאים:

  1. 𝐄[εi]=0 עבור i=1,,n.
  2. 𝐕𝐚𝐫(εi)=σ2< עבור i=1,,n.
  3. 𝐂𝐨𝐯(εi,εj)=0 עבור i,j=1,,n;ij.

אז האומד שממזער את סכום ריבועי השגיאות הוא אומד הריבועים הפחותים הלינארי, β^=(XTX)1XT𝐲 כאשר XT היא המטריצה המשוחלפת של X.

הוכחה

יהי β~=C𝐲 אומד לינארי וחסר הטיה כלשהו. היות שאנו עוסקים באומדים חסרי הטיה, מיזעור של סכום ריבועי השגיאות שקול למזעור השונות. אם כך נרצה להראות כי המטריצה 𝐕𝐚𝐫(β~)𝐕𝐚𝐫(β^) היא מטריצה חיובית.

נכתוב לצורך הפשטות C=(XTX)1XT+D, עבור מטריצה D מגודל K×n, ונחשב,

𝐄[β~]=𝐄[Cy]=𝐄[((XTX)1XT+D)(Xβ+ε)]=((XTX)1XT+D)Xβ+((XTX)1XT+D)𝐄[ε]=((XTX)1XT+D)Xβ=(XTX)1XTXβ+DXβ=(IK+DX)β

אם כך, כדי שהאומד β~ יהיה חסר הטיה, בהכרח מתקיים DX=0. מכך נובע,

𝐕𝐚𝐫(β~)=𝐕𝐚𝐫(C𝐲)=C𝐕𝐚𝐫(y)CT=σ2CCT=σ2((XTX)1XT+D)(X(XTX)1+DT)=σ2((XTX)1XTX(XTX)1+(XTX)1XTDT+DX(XTX)1+DDT)=σ2(XTX)1+σ2(XTX)1(DX)T+σ2DX(XTX)1+σ2DDT=σ2(XTX)1+σ2DDT=𝐕𝐚𝐫(β^)+σ2DDT

כאשר המעבר בשורה השביעית הוא כי DX=0, והמעבר בשורה השמינית הוא כי σ2(XTX)1=𝐕𝐚𝐫(β^).

לפיכך, היות ש-DDT היא מטריצה חיובית, נובע כי אכן 𝐕𝐚𝐫(β~)𝐕𝐚𝐫(β^) היא מטריצה חיובית, כנדרש.

ראו גם

הערות שוליים

משפט_גאוס-מרקוב19784150Q428134