dc.description.abstract |
Nous abordons dans ce mémoire le problème de la classification non supervisée de documents répartis par des méthodes probabilistes. Notre étude se concentre en particulier sur le modèle de mélange de lois multinomiales avec variables latentes thématiques au niveau des documents.
Le travail porte sur l’apprentissage non supervisé distribué permettant de préserver la confidentialité des données en utilisant d’autres résultats de classifications sans avoir recours aux données de ces dernières. L’approche qui sera étudiée sera basée sur des méthodes probabilistes. Ayant une collection de corpus distribués sur plusieurs sites différents, le problème consiste à partitionner chacun de ces corpus en considérant les données locales et les classifications distantes des autres corpus distribués, sans partage de données entre les différents centres. Pour ce faire, nous proposons une approche asynchrone qui se subdivise en deux phases : Une phase locale et une phase de distribuée. La phase locale reviendrait à appliquer un algorithme de classification, dans notre cas c’est la méthode pLSA, localement et indépendamment sur chacun des corpus, ce qui se soldera par l’obtention d’une partition pour chacun de ces corpus. La phase distribuée reviendrait à faire participer chacun des corpus avec toutes les classifications associées aux autres corpus lors de la phase locale. Ainsi, comme résultat on obtient sur chacun des sites une classification proche de la classification qu’on aurait obtenue si on avait fait centraliser tous les corpus en un seul corpus global. A l’issu des deux phases, toutes les classifications locales seront enrichies. |
en_US |