Навчання на прикладах — Вікіпедія
У машинному навчанні, навчання на прикладах (інколи також навчання на основі пам'яті[1]) — група навчальних алгоритмів, що порівнюють нові приклади з тими, що зустрічалися при попередньому навчанні і зберігаються в пам'яті. Навчання на прикладах іноді називають ледачим навчанням.
Ці алгоритми будують гіпотези безпосередньо з навчальних прикладів[2]. Це означає, що складність гіпотези може рости з розміром даних[2]: в найгіршому випадку, гіпотеза — це список n навчальних прикладів і обчислювальна складність класифікації одного нового екземпляра є O(N). Однією з переваг навчання на прикладах, на відмінну від машинного навчання, є його здатність адаптувати свою модель до раніше небачених, нових даних: навчені класифікатори можуть просто зберегти новий екземпляр або викинути старий.
Прикладами алгоритмів, що навчаються на прикладах, є метод найближчих k-сусідів, ядрові методи та RBF-мережі[3]. Ці алгоритми зберігають підмножину їх навчальної множини. При передбаченні значення/класу нового прикладу, вони обчислюють відстань або схожість між цим прикладом та тренувальними прикладами, щоб ухвалити рішення.
Щоб вирішити проблему використання пам'яті для збереження всіх вхідних прикладів, а також ризику перенавчання на зашумлених даних в навчальній множині прикладів, були запропоновані алгоритми зменшення прикладів[4].
- ↑ Walter Daelemans; Antal van den Bosch (2005). Memory-Based Language Processing. Cambridge University Press.
- ↑ а б Stuart Russell[en] and Peter Norvig (2003). Artificial Intelligence: A Modern Approach, second edition, p. 733. Prentice Hall. ISBN 0-13-080302-2
- ↑ Tom Mitchell (1997). Machine Learning. McGraw-Hill.
- ↑ D. Randall Wilson; Tony R. Martinez (2000). Reduction techniques for instance-based learning algorithms. Machine Learning.
Це незавершена стаття зі штучного інтелекту. Ви можете допомогти проєкту, виправивши або дописавши її. |
Ця стаття містить правописні, лексичні, граматичні, стилістичні або інші мовні помилки, які треба виправити. (грудень 2016) |