| dc.description.abstract |
Ce mémoire a été réalisé dans le cadre d'un projet de fin d'études en Master Génie Logiciel.
Il porte sur la conception et la mise en oeuvre d'une plateforme avancée permettant l'extraction
automatique de métadonnées et la recherche de documents numériques, en s'appuyant sur un
modèle de langage local (LLM).
Pour mettre en œuvre notre solution, nous avons adopté la méthode agile SCRUM comme
cadre de gestion de projet, tout en s'appuyant sur le langage UML pour la modélisation. Le
backend est développé avec Django et Django REST Framework, assurant le traitement de
documents variés (PDF, DOCX, ODT...), l'extraction de texte via OCR, l'enrichissement des
métadonnées par un LLM, et le stockage dans une base PostgreSQL. Le frontend est réalisé
avec Vue.js, Pinia et Vuetify, permettant une interface utilisateur interactive.
Les tests d'API ont été réalisés à l'aide de l'outil Insomnia, et le code est versionné via Git
et hébergé sur GitHub. L'architecture repose également sur l'utilisation de conteneurs Docker
pour une meilleure portabilité. |
en_US |