اطلاعات متقابل - ویکی‌پدیا، دانشنامهٔ آزاد

یک نمودار ون که به طور نمادین رابطهٔ معیارهای اطلاعاتی مختلف متغیرهای تصادفی X و Y را نشان می‌دهد. رنگ بنفش در شکل اطلاعات متقابل را نشان می‌دهد.

در نظریه احتمالات و نظریه اطلاعات، اطلاعات متقابل بین دو متغیر تصادفی معیاری برای نشان دادن میزان وابستگی متقابل آن دو متغیر می‌باشد. به بیان دیگر در حقیقت این معیار «میزان اطلاعات» به دست آمده (مثلاً در واحد بیت) در مورد یک متغیر تصادفی از طریق متغیر تصادفی دیگر را نشان می‌دهد. مفهوم اطلاعات متقابل ذاتاً مرتبط با آنتروپی یک متغیر تصادفی که میزان اطلاعات موجود در یک متغیر تصادفی را نشان می‌دهد، می‌باشد.

اطلاعات متقابل میزان شباهت بین توزیع مشترک و ضرب احتمال‌های حاشیه ای یعنی را مشخص می‌سازد.

تعریف

[ویرایش]

اطلاعات متقابل بین دو متغیر تصادفی و را به صورت زیر می‌توان تعریف نمود:

که در رابطه فوق تابع توزیع احتمال مشترک و ، و و تابع‌های توزیع احتمال حاشیه ای به ترتیب و می‌باشند.

در صورتی که متغیرهای تصادفی پیوسته باشند، رابطه به صورت زیر بر اساس انتگرال معین دوگانه تعریف می‌گردد:

که در رابطهٔ فوق اکنون تابع چگالی احتمال مشترک و ، و و تابع‌های چگالی احتمال حاشیه ای به ترتیب و می‌باشند.

اگر لگاریتم در پایهٔ ۲ استفاده شود، واحد اطلاعات متقابل بیت خواهد بود.

اطلاعات متقابل میزان اطلاعاتی که بین و مشترک است را انداره می‌گیرد. اطلاعات متقابل نشان می‌دهد تا چه میزان دانستن یکی از این متغیرها میزان ابهام ما در مورد دیگری را کاهش می‌دهد. مثلاً اگر و مستقل باشند، در این صورت دانستن هیچ اطلاعاتی در مورد به ما نمی‌دهد (و بر عکس)، بنا بر این اطلاعات متقابلشان صفر است. از طرف دیگر، اگر یک تابع قطعی (deterministic) از و یک تابع قطعی (deterministic) از باشد، در این صورت تمام اطلاعاتی که با خود حمل می‌کند، در هم هست، دانستن مقدار را مشخص می‌کند و بر عکس. در نتیجه در این حالت اطلاعات متقابل برابر میزان ابهام در (یا )، یعنی آنتروپی (یا ) می‌باشد.

اطلاعات متقابل میزان وابستگی را بر اساس توزیع مشترک و ، در مقایسه با توزیع مشترک و تحت فرض استقلال، به دست می‌آورد. اطلاعات متقابل در نتیجه وابستگی را در معنای زیر اندازه‌گیری می‌کند:

اگر و فقط اگر و متغیرهای تصادفی مستقل باشند. بررسی این حقیقت از یک سمت آسان است: اگر و مستقل باشند، در این صورت و در نتیجه:

در ضمن لازم است ذکر شود که اطلاعات متقابل نامنفی و متقارن می‌باشد.

رابطه با دیگر مقادیر

[ویرایش]

اطلاعات متقابل معادلاً تحت روابط زیر قابل بیان می‌باشد:

که در روابط فوق و آنتروپی‌های حاشیه ای، و آنتروپی‌های شرطی می‌باشند و آنتروپی مشترک و می‌باشد. به شباهت روابط با روابط اجتماع، اشتراک و اختلاف دو مجموعه توجه کنید.

به کمک نامساوی Jensen روی تعریف اطلاعات متقابل می‌توان نشان داد نامنفی است، و در نتیجه، . اکنون ما در این‌جا اثبات رابطه را ارائه می‌دهیم:

اثبات تساوی‌های دیگر که در بالا آمده‌است، به طور مشابه انجام می‌پذیرد.

اطلاعات متقابل همچنین بر اساس انحراف Kullback-Leibler به شکل زیر قابل بیان می‌باشد:

اطلاعات متقابل شرطی

[ویرایش]

گاهی اوقات لازم است اطلاعات متقابل دو متغیر تصادفی به شرط یک متغیر تصادفی سوم بیان گردد.

که رابطه فوق را می‌توان به صورت زیر ساده‌تر نوشت:

شرط روی یک متغیر تصادفی سوم می‌تواند اطلاعات متقابل را کاهش یا افزایش دهد، ولی در هر حال رابطه زیر همیشه صادق است:

منابع

[ویرایش]