آدابوست - ویکی‌پدیا، دانشنامهٔ آزاد

آدابوست (به انگلیسی: AdaBoost) تطبیقی بوده و یک الگوریتم یادگیری ماشین است که توسط یاو فروند و رابرت شاپیر اختراع شد.[۱] تطبیقی بودن آدابوست به این معناست که مدلها یکی پس از دیگری ساخته شده و عملکرد مدل‌های قبلی بر روند مدل‌سازی مدل‌های پس از آن تأثیر می‌گذارد.[۲] در واقع آدابوست یک متا الگوریتم است که به منظور ارتقاء عملکرد، و رفع مشکل رده‌های نامتوازن[۳] همراه دیگر الگوریتم‌های یادگیری استفاده می‌شود. در این الگوریتم، طبقه‌بندی هر مرحله جدید به نفع نمونه‌های غلط طبقه‌بندی شده در مراحل قبل تنظیم می‌گردد. آدابوست نسبت به داده‌های نویزی و پرت حساس است؛ ولی نسبت به مشکل بیش برازش از بیشتر الگوریتم‌های یادگیری برتری دارد. طبقه‌بندی پایه که در اینجا استفاده می‌شود فقط کافیست از طبقه‌بندی تصادفی (۵۰٪) بهتر باشد و به این ترتیب عملکرد الگوریتم در تکرارهای بیشتر بهبود می‌یابد. حتی طبقه‌بندهای با خطای بالاتر از تصادفی با گرفتن ضریب منفی عملکرد کلی را بهبود می‌بخشند.[۱] در الگوریتم آدابوست در هر دور یک طبقه‌بند ضعیف اضافه می‌شود. در هر فراخوانی بر اساس اهمیت نمونه‌ها، وزن‌ها بروز می‌شود. در هر دور وزن نمونه‌های غلط طبقه‌بندی شده افزایش و وزن نمونه‌های درست طبقه‌بندی شده کاهش داده می‌شود؛ بنابراین طبقه‌بند جدید تمرکز بر نمونه‌هایی که سخت‌تر یادگرفته می‌شوند، خواهند داشت.[۱] پس به‌طور خلاصه این الگوریتم منطبق بر یادگیری گروهی می‌باشد. به بیان ساده‌تر طرز کار این الگوریتم به این صورت است که عملکرد مدلهایی که به تنهایی ضعیف عمل می‌کنند را با یکدیگر ترکیب کرده و باعث بهبود عملکرد آنها می‌شود. پس در نظرگرفتن پیش‌بینی که مجموع چند الگوریتم یادگیری ضعیف ارائه می‌دهد می‌تواند در نهایت به اندازهٔ عملکرد یک الگوریتم قوی قابل اتکا باشد.[۲]

الگوریتم طبقه‌بندی دوگانه

[ویرایش]

داده شده‌ها:

  • مجموعه یادگیری: که
  • تعداد تکرارها:

مقداردهی اولیه: برای

  • برای خانواده طبقه‌بندهای ضعیف ℋ طبقه‌بند را پیدا کن که میزان خطا نسبت به توزیع کمینه شود، در این معادله یک تابع نشانگر است:

خطای را با نمایش می‌دهیم:

  • اگر که یک آستانه تعیین شده قبلی است، توقف انجام شود.
  • معمولاً مقدار برای در نظر گرفته می‌شود.
  • بروز رسانی:

که یک عامل نرمال‌سازی با مقدار است که موجب می‌شود یک توزیع احتمالاتی مجاز را نشان دهد (مجموع روی همه ‌ها یک شود)
خروجی نهایی طبقه‌بند

توجه شود که معادله بروز رسانی توزیع بگونه‌ای بروز می‌شود که

بنابراین بعد از انتخاب بهینه طبقه‌بند برای توزیع آندسته از نمونه‌ها که طبقه‌بند آن‌ها را غلط طبقه‌بندی می‌کند وزن بیشتری نسبت به بقیه داده می‌شود؛ بنابراین وقتی الگوریتم طبقه‌بندها را براساس توزیع تست می‌کند، طبقه‌بندی انتخاب می‌شود که نمونه‌های غلط طبقه‌بندی شده را بهتر تشخیص دهد.

مراحل الگوریتم آدابوست

[ویرایش]

الگوریتم آدابوست مطابق مراحل زیر به صورت مکرر کار می‌کند

  • در ابتدا برای این الگوریتم الزامی است یک زیرمجموعه آموزشی انتخاب شود.
  • با استفاده از مجموعه آموزشی که بر اساس پیش‌بینی صحیح آخرین آموزش ایجاد شده به صورت مکرر مدل یادگیری‌ماشینی آدابوست را آموزش می‌دهیم.
  • تمام نمونه‌های آموزشی در فرایند آموزش دارای وزنی خواهند بود که براساس خطای ناشی از مدل یادگیری‌ماشین به‌دست می‌آید. این الگوریتم وزن بالاتری را به مشاهداتی که به صورت اشتباه طبقه‌بندی شده‌اند اختصاص می‌دهد تا در تکرارهای بعدی این مشاهدات برای فرایند طبقه‌بندی احتمال بالاتری را به‌دست آورند.
  • در مرحله بعد طبقه‌بندهایی که آموزش دیده شده‌اند وزن‌دهی می‌شوند. هرچه طبقه‌بندی دقیق‌تر باشد وزن بالاتری خواهد داشت.
  • این مراحل تا زمانی تکرار می‌شوند که داده‌های آموزشی کامل و بدون هیچ خطایی توسط مدل آموزش ببیند.
  • برای انجام طبقه‌بندی کافی است یک رای به ازای هر الگوریتم یادگیری ساخته‌شده در نظر گرفته شود.[۴]

ایجاد مدل در پایتون

[ویرایش]

در این مرحله مطابق کد زیر کتابخانه‌های مورد نیاز را وارد می‌کنیم.

# Load libraries from sklearn.ensemble import AdaBoostClassifier from sklearn import datasets # Import train_test_split function from sklearn.model_selection import train_test_split # Import scikit-learn metrics module for accuracy calculation from sklearn import metrics 

در مرحله بعد از یک مجموعه‌داده برای بررسی مدل روی آن استفاده می‌کنیم.

# Load data iris = datasets.load_iris() X = iris.data y = iris.target 

سپس مجموعه‌داده را به دو قسمت آموزش و تست تقسیم می‌کنیم.

# Split dataset into training set and test set X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3) # 70% training and 30% test 

در نهایت یک مدل آدابوست روی مجموعه‌داده اجرا می‌کنیم.

# Create adaboost classifer object abc = AdaBoostClassifier(n_estimators=۵۰,   learning_rate=۱) # Train Adaboost Classifer model = abc.fit(X_train, y_train) # Predict the response for test dataset y_pred = model.predict(X_test) 

[۴]

اثبات و فهم ریاضی آدابوست

[ویرایش]

عمل تقویت کردن را می‌توان به صورت حداقل کردن یک تابع هزینه محدب روی یک مجموعه محدب از توابع در نظر گرفت.[۵] به‌طور خاص تابعی که حداقل می‌شود نمایی است:

و ما به‌دنبال تابعی به شکل زیر هستیم:[۶]

مجهولِ تابع هزینه ، است که خود به بستگی دارد. در نتیجه بهینه‌سازی تابع هزینه در نهایت باید نسبت به صورت بگیرد.

حال برای راحتتر شدن کار فرض می‌کنیم که مقادیر ثابت هستند و هدف ما پیدا کردن و است. با این اوصاف تابع را می‌توان به شکل پایین نوشت:

اگر را با نمایش دهیم، تابع هزینه ما به شکل پایین تغییر شکل خواهد داد:[۶]

اگر مجموعه تمام داده‌هایی که توسط به درستی پیش‌بینی می‌شوند را با و مجموعه تمام داده‌هایی که توسط نادرست پیش‌بینی می‌شوند را با نمایش دهیم. تابع هزینه به شکل پایین تغییر خواهد کرد:

حال اگر را نسبت به بهینه کنیم، از آنجا که و نسبت به ثابت هستند، فقط باید را نسبت به کمینه کنیم؛ یعنی

بعد از پیدا کردن باید را پیدا کنیم اگر را بنامیم تابع هزینه ما تبدیل می‌شود به که اگر از آن نسبت به مشتق بگیریم و جواب را در نقطه صفر به‌دست بیاوریم به این جواب می‌رسیم: .

حال که و را پیدا کردیم باید ببینیم که به چه شکل نسبت به بروز می‌شود. همان است یعنی

پس ارتباط با به این شکل خواهد بود:[۶]

از آنجا که به‌روز کردن به این شکل تغییر خواهد کرد:

اگر تمام ‌ها را در یک مقدار ثابتی ضرب کنیم تأثیری در جواب نهایی و و نخواهد داشت. ازین رو همیشه می‌توان مقدار آن‌ها را نرمال‌سازی کرد. با نرمال‌سازی به معادله بازگشتی پایین می‌رسیم، در این معادله  :

همان است، و از آنجا که در جواب تأثیری ندارد، می‌توان آن را حذف کرد. حال اگر را همان بگیریم به الگوریتم آدابوست خواهیم رسید.[۶]

جستارهای وابسته

[ویرایش]

منابع

[ویرایش]
  1. ۱٫۰ ۱٫۱ ۱٫۲ Yoav Freund, Robert E. Schapire. "A Decision-Theoretic Generalization of on-Line Learning and an Application to Boosting", 1995
  2. ۲٫۰ ۲٫۱ https://towardsdatascience.com/adaboost-in-7-simple-steps-a89dc41ec4
  3. مهسا المعی نژاد. «روش‌های Bagging و Boosting به منظور رفع مشکل کلاس‌های نامتوازن». گروه داده کاوی ایران. بایگانی‌شده از اصلی در ۳۱ مارس ۲۰۱۴. دریافت‌شده در ۲۶ فوریه ۲۰۱۴.
  4. ۴٫۰ ۴٫۱ https://www.datacamp.com/tutorial/adaboost-classifier-python
  5. T. Zhang, "Statistical behavior and consistency of classification methods based on convex risk minimization", Annals of Statistics 32 (1), pp. 56-85, 2004.
  6. ۶٫۰ ۶٫۱ ۶٫۲ ۶٫۳ Bishop, Christopher (2006). Pattern Recognition and Machine Learning (به انگلیسی). New York: Springer. pp. 658–661.

پیاده‌سازی‌ها

[ویرایش]

پیوند به بیرون

[ویرایش]