dc.contributor.author |
Soczewka, Mateusz |
|
dc.date.accessioned |
2023-01-12T12:02:29Z |
|
dc.date.available |
2023-01-12T12:02:29Z |
|
dc.date.issued |
2023-01-12 |
|
dc.identifier.issn |
2022/M/DS/13 |
|
dc.identifier.uri |
https://repin.pjwstk.edu.pl/xmlui/handle/186319/2222 |
|
dc.description.abstract |
W pracy przedstawiono szczegółowy opis metody Extreme Gradient Boosting wraz z objasnieniem
kluczowych hiperparametrów algorytmu. Przedstawiono analize najpopularniejszych
metod optymalizacji hiperparametrów w metodach uczenia maszynowego. Przedstawiono
dotychczasowe wyniki wybranych prac nad badaniem optymalizacji hiperparametrów.
Porównano analizowane algorytmy oraz wykonano eksperymenty majace na celu wyłonienie
najlepszej metody oraz sformułowanie ogólnych wniosków dotyczacych poszczególnych metod
optymalizacyjnych. |
pl_PL |
dc.language.iso |
other |
pl_PL |
dc.relation.ispartofseries |
;Nr 7009 |
|
dc.subject |
Extreme Gradient Boosting |
pl_PL |
dc.subject |
hiperparametry |
pl_PL |
dc.subject |
optymalizacja |
pl_PL |
dc.subject |
grid search |
pl_PL |
dc.subject |
random search |
pl_PL |
dc.subject |
successive halving |
pl_PL |
dc.subject |
hyperband |
pl_PL |
dc.subject |
algorytmy genetyczne |
pl_PL |
dc.subject |
optymalizacja bayesowska |
pl_PL |
dc.title |
Optymalizacja hiperparametrów w algorytmach uczenia maszynowego na przykładzie metody XGBoost |
pl_PL |
dc.title.alternative |
Hyperparameter optimization in machine learning algorithms based on the XGBoost method. |
pl_PL |
dc.type |
Thesis |
pl_PL |