בלי הוכחה מתימטית
כי אין לי כוח ממש לשבת על זה כרגע (אבל כשיהיה לי זמן זה יגיע), אז אני מקווה שאני לא ממש פולט שטויות כרגע. זה רק דברים ראשוניים שעלו לי בראש כשראיתי את המודעה שלך. אז ככה: קוד המינג, הוא סוג של קידוד למקור. כלומר לוקחים מקור מידע ומקודדים אותו. בשם אחר זה נקרא דחיסת מקור. למה דחיסה? או, כאן מגיע קצת רקע מתימטי - ונא לא להירדם!!! נניח שיש לי מקור כלשהו, אשר מפיק אותו בינארים. ההסתברות ל-0 היא 0.9 וההסתברות ל-1 היא 0.1. עכשיו - מבחינה אינטואטיבית (כי לא ניכנס למתימטיקה כאן, למרות שהחלק הזה כבר הוכח) כאשר מגיע "0" - אין חידוש גדול, או בצורה אחרת :
אין הרבה מידע לעומת זאת, כאשר מגיע "1" יש הרבה מידע. אנחנו רוצים לשדר כמה שיותר מידע, כלומר להשתמש במקור שמוציא הכי הרבה מידע בממוצע. בלי לביכנס להוכחה ולהגדרה, מקור כזה הוא מקור אשר ההסתברות ל-"0" היא כמו ההסתברות ל-"1", כלומר חצי. (מקור כזה מוציא 1
ביט מידע (להבדיל מביט שאנחנו פוגשים כל שני וחמישי). מכיוון שאין מה לעשות, והמקורות בעולם לא סימטריים, אנחנו עושים להם קידוד _קידוד מקור) על מנת לקרב אותם למקור האופטימלי ורק אז לשדר. (כך אנחנו מעבירים הכי הרבה מידע ברוחב פס נתון). הוכח, שקוד המינג הוא הקידוד היעיל ביותר לצורך עניין זה. בקוד המינג, אנחנו יודעים את ההסתברות לכל אות, (או סימבול) מידע. בלי להיכנס לעומק, ובלי שהוכחתי לעצמי - וזאת רק השערה, נראה לי שמה שמאפיין את המילים שעבורן ביצוע not ואז קידוד נותן תוצאה כמו ביצוע קידוד ואז not זה העובדה שהיה מספר שווה של אפסים ואחדים. כלומר הסתברויות שוות. מקווה שאני בכיוון, וגם אם לא, אלה היו 60 שניות על המינג ולמה צריך אותו
)