درخت تصمیم - ویکیپدیا، دانشنامهٔ آزاد
درخت تصمیمگیری (Decision Tree) یک ابزار برای پشتیبانی از تصمیم است که از درختها برای مدل کردن استفاده میکند. درخت تصمیم بهطور معمول در تحقیقها و عملیات مختلف استفاده میشود. بهطور خاص در آنالیز تصمیم، برای مشخص کردن استراتژی که با بیشترین احتمال به هدف برسد، بکار میرود. استفاده دیگر درختان تصمیم، توصیف محاسبات احتمال شرطی است.
مثالها
[ویرایش]مثال۱
[ویرایش]در بازی بیست سؤالی، بازیکن باید یک درخت تصمیم در ذهن خود بسازد که به خوبی موارد را از هم جدا کند تا با کمترین سؤال به جواب برسد. در صورتی بازیکن به جواب میرسد که درخت ساخته شده بتواند به خوبی موارد را از هم جدا کند.
مثال ۲
[ویرایش]فرض کنید نمرات پارسال یک استاد به همکلاسیها را داریم و میخواهیم قبول یا مردود شدن خود را تخمین بزنیم؛ بنابراین یک جدول میکشیم که در آن ویژگیهایی که همه همکلاسیها دارند و برای ما مشخص هستند را فهرست میکنیم؛ ویژگیهایی مانند جنسیت، تأهل و اشتغال را میآوریم؛ بنابراین چنین نتیجه میشود:
- مؤنث => ۹۰ درصد قبول (برگ)
- مذکر => ۵۰ درصد مردود (تعیینکننده نیست (از لحاظ آماری همگن است)، پس تصمیم را میشکنیم)
- مذکر + اشتغال => ۶۰ درصد مردود (تقریباً همگن)
- مذکر + اشتغال + تأهل => ۸۵ درصد قبول (برگ)
- مذکر + اشتغال + مجرد => ۷۰ درصد مردود (برگ (چون ویژگی دیگری نداریم))
مثال ۳
[ویرایش]در مجموعه داده گل زنبق، میخواهم نوع زنبقی را تخمین بزنم که بردار ویژگی آن x است؛ بنابراین در متلب:
clear all load fisheriris ;% بارگیری مجموعهداده گل زنبق iris_tree = fitctree(meas,species); % ایجاد درخت تصمیم view(iris_tree,'mode','graph') % توضیح نمودار x=[6 3 1.5 .3]; % زنبق من disp(predict(iris_tree,x)) % نتیجه تصمیم
کلیات
[ویرایش]در آنالیز تصمیم، یک درخت تصمیم به عنوان ابزاری برای به تصویر کشیدن و آنالیز تصمیم، در جایی که مقادیر مورد انتظار از رقابتها متناوباً محاسبه میشود، استفاده میگردد. یک درخت تصمیم دارای سه نوع گرهاست:
- گره تصمیم: بهطور معمول با مربع نشان داده میشود.
- گره تصادفی: با دایره مشخص میشود.
- گره پایانی: با مثلث مشخص میشود.
نمودار درخت تصمیمگیری
[ویرایش]یک درخت تصمیم میتواند خیلی فشرده در قالب یک دیاگرام، توجه را بر روی مسئله و رابطه بین رویدادها جلب کند.
مربع نشان دهنده تصمیمگیری، بیضی نشان دهنده فعالیت، و لوزی نشان دهنده نتیجه است.
الگوریتم ساخت درخت تصمیمگیری
[ویرایش]مجموع دادهها را با نمایش میدهیم، یعنی ، به قسمی که و . درخت تصمیمگیری سعی میکند به صورت بازگشتی دادهها را به قسمی از هم جدا کند که در هر گِرِه متغیرهای مستقلِ به هم نزدیک شده همسان شوند.[۱] هر گِره، زیر مجموعه ای از داده هاست که به صورت بازگشتی ساخته شدهاست. بهطور دقیقتر در گره اگر داده ما باشد، سعی میکنیم یک بُعد از متغیرهایی وابسته را به همراه یک آستانه انتخاب کنیم و دادهها را برحسب این بُعد و آستانه به دو نیم تقسیم کنیم، به قسمی که بهطور متوسط در هر دو نیم متغیرهای مستقل یا خیلی به هم نزدیک و همسان شده باشند. این بعد و آستانه را مینامیم. دامنه برابر است با و یک عدد صحیح است. برحسب به دو بخش و به شکل پایین تقسیم میشود:[۱]
حال سؤال اینجاست که کدام بُعد از متغیرهای وابسته و چه آستانهای را باید انتخاب کرد. به زبان ریاضی باید آن یی را انتخاب کرد که ناخالصی داده را کم کند. ناخالصی برحسب نوع مسئله تعریفی متفاوت خواهد داشت، مثلاً اگر مسئله یک دستهبندی دوگانه است، ناخالصی میتواند آنتراپی داده باشد، کمترین ناخالصی زمانی است که هم و هم از یک دسته داشته باشند، یعنی در هر کدام از این دو گِرِه دو نوع دسته وجود نداشته باشد. برای رگرسیون این ناخالصی میتواند واریانس متغیر وابسته باشد. از آنجا که مقدار داده در و با هم متفاوت است، میانگینی وزندار از هر دو ناخالصی را به شکل پایین محاسبه میکنیم.[۲] در این معادله ، و :
هدف در اینجا پیدا کردن آن یی است که ناخالصی را کمینه کند، یعنی . حال همین کار را به صورت بازگشتی برای و انجام میدهیم. بعضی از گرهها را باید به برگ تبدیل کنیم. معیاری که برای تبدیل یک گره به برگ از آن استفاده میکنیم، میتواند مقداری حداقلی برای (تعداد داده در یک گره) یا عمق درخت باشد. به قسمی که اگر با دو نیم کردن گِره یکی از معیارها عوض شود، گِره را به دو نیم نکرده آن را تبدیل به یک برگ میکنیم. معمولاً این دو پارامتر باعث تنظیم مدل (Regularization) میشوند.[۲] در ابتدای کار گره شامل تمام دادهها میشود یعنی .
مسئله دستهبندی
[ویرایش]اگر مسئله ما دستهبندی باشد و باشد تابع ناخالصی برای گره میتواند یکی از موارد پایین باشد، در این معادلهها :[۳]
ناخالصی گینی:
ناخالصی آنتروپی:
ناخالصی خطا:
مسئله رگرسیون
[ویرایش]در مسئله رگرسیون ناخالصی میتواند یکی از موارد پایین باشد:
میانگین خطای مربعات:
میانگین خطای قدر مطلق:
مزایا
[ویرایش]در میان ابزارهای پشتیبانی تصمیم، درخت تصمیم و دیاگرام تصمیم دارای مزایای زیر هستند:
- فهم ساده: هر انسان با اندکی مطالعه و آموزش میتواند، طریقه کار با درخت تصمیم را بیاموزد.
- کار کردن با دادههای بزرگ و پیچیده: درخت تصمیم در عین سادگی میتواند با دادههای پیچیده به راحتی کار کند و از روی آنها تصمیم بسازد.
- استفاده مجدد آسان: در صورتی که درخت تصمیم برای یک مسئله ساخته شد، نمونههای مختلف از آن مسئله را میتوان با آن درخت تصمیم محاسبه کرد.
- قابلیت ترکیب با روشهای دیگر: نتیجه درخت تصمیم را میتوان با تکنیکهای تصمیمسازی دیگر ترکیب کرده و نتایج بهتری بدست آورد.
معایب
[ویرایش]- مشکل استفاده از درختهای تصمیم آن است که به صورت نمایی با بزرگ شدن مسئله بزرگ میشوند.
- اکثر درختهای تصمیم تنها از یک ویژگی برای شاخه زدن در گرهها استفاده میکنند در صورتی که ممکن است ویژگیها دارای توزیع توأم باشند.
- ساخت درخت تصمیم در برنامههای داده کاوی، حافظه زیادی را مصرف میکند زیرا برای هر گره باید معیار کارایی برای ویژگیهای مختلف را ذخیره کند تا بتواند بهترین ویژگی را انتخاب کند.
جستارهای وابسته
[ویرایش]- تقویت گرادیان
- جدول تصمیم
- پیچیدگی درخت تصمیم
- آنالیز تصمیم
- درخت
- گراف تصمیم
- شبکه تصمیم
- زنجیره مارکف
- دیاگرام تصمیم
- آدابوست
منابع
[ویرایش]- Decision Tree Analysis mindtools.com
- Decision Analysis open course at George Mason University
- Extensive Decision Tree tutorials and examples
- ↑ ۱٫۰ ۱٫۱ Hastie, Trevor; Tibshirani, Robert; Friedman, Jerome (2009). The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition. Springer Series in Statistics (به انگلیسی) (2 ed.). New York: Springer-Verlag.
- ↑ ۲٫۰ ۲٫۱ Rokach، Lior؛ Maimon، Oded (۲۰۱۴). Data Mining With Decision Trees: Theory and Applications (ویراست ۲nd). River Edge, NJ, USA: World Scientific Publishing Co. , Inc. شابک ۹۷۸۹۸۱۴۵۹۰۰۷۵.
- ↑ Krzywinski, Martin; Altman, Naomi (2017-07-28). "Points of Significance: Classification and regression trees". Nature Methods (به انگلیسی). Retrieved 2018-12-13.