AdaBoost – podstawowy algorytm do boostingu, metoda dzięki której z dużej liczby słabych klasyfikatorów można otrzymać jeden lepszy. Autorami algorytmu są Yoav Freund i Robert Schapire.

Zasada działania edytuj

AdaBoost działa w ten sposób, że w kolejnych iteracjach trenuje, a następnie mierzy błąd wszystkich dostępnych słabych klasyfikatorów. W każdej następnej iteracji "ważność" źle zakwalifikowanych obserwacji jest zwiększana, tak że klasyfikatory zwracają na nie większą uwagę[1]. Nad AdaBoost pracowali dwaj amerykańscy profesorowie Uniwersytetu Princeton Robert Schapire i Yoav Freund za co otrzymali w 2003 roku nagrodę Gödla, a w 2004 roku Nagrodę Parisa Kanellakisa[2]. Po raz pierwszy zaprezentowali tą technikę w 1997 roku[1].

Przypisy edytuj

  1. a b AdaBoost Algorithm - A Complete Guide for Beginners [online], Analytics Vidhya, 15 września 2021 [dostęp 2022-02-12] (ang.).
  2. Robert Schapire - The Mathematics Genealogy Project [online], www.mathgenealogy.org [dostęp 2022-02-12].