Please use this identifier to cite or link to this item: http://univ-bejaia.dz/dspace/123456789/25253
Full metadata record
DC FieldValueLanguage
dc.contributor.authorBouamama, Melissa-
dc.contributor.authorBerreguia, Rahma-
dc.contributor.authorAsli, L. ; promoteur-
dc.contributor.authorZaidi, A. ; promoteur-
dc.date.accessioned2024-12-23T08:27:51Z-
dc.date.available2024-12-23T08:27:51Z-
dc.date.issued2024-
dc.identifier.other003MAS/385-
dc.identifier.urihttp://univ-bejaia.dz/dspace/123456789/25253-
dc.descriptionOption : Sciences de Données et Aide à la Décisionen_US
dc.description.abstractCette etude se concentre sur la reconnaissance automatique hors ligne des caractères latins en langue amazighe. Un système OCR a été développé en utilisant l'apprentissage profond pour identifier les caractères. Un corpus de données a été construit, structuré en trois niveaux : caractères, mots et phrases. La méthodologie adoptée comprend la préparation et le prétraitement des images à l'aide de techniques de binarisation, de reduction du bruit et de squelettisation. Pour l'extraction des caract éristiques et la classification, deux modeles d'apprentissage profond ont été élaborés : un modèle hybride combinant des couches CNN et BiLSTM qui a atteint un taux de reconnaissance de 94%, et un modele basé sur l'architecture DenseNet qui a obtenu un taux de reconnaissance de 97%. Le resultat final montre une performance avec un taux de reconnaissance de 97% et une bonne précision pour la plupart des caractères étudiés dans ce travail.en_US
dc.language.isofren_US
dc.publisherUniversité Abderramane Mira-Bejaiaen_US
dc.subjectReconnaissance automatique hors ligne : Caracteres latins : Langue amazighe : Apprentissage profond : CNN : BiLSTM : DenseNet : Corpus : Modèle hybriden_US
dc.titleTraitement automatique des caractères Latins en Tamazight.en_US
dc.typeThesisen_US
Appears in Collections:Mémoires de Master

Files in This Item:
File Description SizeFormat 
The_End__Version_corrigée_.pdf7.51 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.