dc.contributor.author |
Hutyra, Daniel |
|
dc.date.accessioned |
2023-01-02T09:14:16Z |
|
dc.date.available |
2023-01-02T09:14:16Z |
|
dc.date.issued |
2023-01-02 |
|
dc.identifier.issn |
2021/M/DS/16 |
|
dc.identifier.uri |
https://repin.pjwstk.edu.pl/xmlui/handle/186319/2054 |
|
dc.description.abstract |
W ostatnich latach obserwowany jest szybki wzrost mocy obliczeniowych komputerów, co przekłada się na ich zwiększone możliwości. Dzięki temu, dziedzina przetwarzania języka naturalnego może rozwijać się szybciej i oferować coraz bardziej skomplikowane rozwiązania, które są w stanie zostać wykonane w czasie rzeczywistym.
Nierozłącznym etapem analizy tekstu, jest identyfikacja właściwych znaczeń słów w zdaniu. Jest to złożony problem i sprowadza się do sklasyfikowania słowa do jednego z jego możliwych znaczeń.
Celem tej pracy jest porównanie ze sobą różnych rozwiązań opartych o sieci neuronowe o architekturze Transformerów oraz innych dotychczasowych rozwiązań problemu ujednoznaczniania znaczeń słów niejednoznacznych. W tym celu dwa polskie modele o takiej architekturze, Polbert oraz HerBERT, zostały zaadaptowane do zadania klasyfikacji binarnej, której wyniki służą jako element narzędzia dezambiguacji. |
pl_PL |
dc.language.iso |
other |
pl_PL |
dc.relation.ispartofseries |
;Nr 6269 |
|
dc.subject |
Przetwarzanie języka naturalnego |
pl_PL |
dc.subject |
Uczenie maszynowe |
pl_PL |
dc.subject |
Ujednoznacznianie znaczeń słów |
pl_PL |
dc.subject |
Transformer |
pl_PL |
dc.subject |
BERT |
pl_PL |
dc.title |
Ujednoznacznianie słów, czyli określenie znaczenia słów użytych w kontekście |
pl_PL |
dc.type |
Thesis |
pl_PL |