Repozytorium PJATK

Optymalizacja hiperparametrów w algorytmach uczenia maszynowego na przykładzie metody XGBoost

Repozytorium Centrum Otwartej Nauki

Pokaż uproszczony rekord

dc.contributor.author Soczewka, Mateusz
dc.date.accessioned 2023-01-12T12:02:29Z
dc.date.available 2023-01-12T12:02:29Z
dc.date.issued 2023-01-12
dc.identifier.issn 2022/M/DS/13
dc.identifier.uri https://repin.pjwstk.edu.pl/xmlui/handle/186319/2222
dc.description.abstract W pracy przedstawiono szczegółowy opis metody Extreme Gradient Boosting wraz z objasnieniem kluczowych hiperparametrów algorytmu. Przedstawiono analize najpopularniejszych metod optymalizacji hiperparametrów w metodach uczenia maszynowego. Przedstawiono dotychczasowe wyniki wybranych prac nad badaniem optymalizacji hiperparametrów. Porównano analizowane algorytmy oraz wykonano eksperymenty majace na celu wyłonienie najlepszej metody oraz sformułowanie ogólnych wniosków dotyczacych poszczególnych metod optymalizacyjnych. pl_PL
dc.language.iso other pl_PL
dc.relation.ispartofseries ;Nr 7009
dc.subject Extreme Gradient Boosting pl_PL
dc.subject hiperparametry pl_PL
dc.subject optymalizacja pl_PL
dc.subject grid search pl_PL
dc.subject random search pl_PL
dc.subject successive halving pl_PL
dc.subject hyperband pl_PL
dc.subject algorytmy genetyczne pl_PL
dc.subject optymalizacja bayesowska pl_PL
dc.title Optymalizacja hiperparametrów w algorytmach uczenia maszynowego na przykładzie metody XGBoost pl_PL
dc.title.alternative Hyperparameter optimization in machine learning algorithms based on the XGBoost method. pl_PL
dc.type Thesis pl_PL


Pliki tej pozycji

Plik Rozmiar Format Przeglądanie

Nie ma plików powiązanych z tą pozycją.

Pozycja umieszczona jest w następujących kolekcjach

Pokaż uproszczony rekord

Szukaj


Szukanie zaawansowane

Przeglądaj

Moje konto