De nos jours, la plupart des moteurs d’analyse de solutions anti-malware sont heuristiques. Ils classent les objets, les flux de données ainsi que les zones mémoires comme bénins ou malveillants en fonction de leur comportement. La plupart des fabricants d'antivirus reconnaissent que l'approche heuristique permet d'atteindre jusqu'à 90% d'efficacité en termes de taux de détection, mais consomme davantage de ressources systèmes : de tels moteurs anti-malware, disponibles en open-source, sont extrêmement inefficaces en termes d’utilisation de ressources système car ils font souvent appel à des algorithmes d'apprentissage automatique. Pour réduire cette charge système, il est fortement recommandé d'utiliser la détection par signature statique, qui permet de filtrer à elle seule la majorité des échantillons de programmes malveillants connus, en conjonction avec les technologies de détection heuristiques et celles basées sur le cloud. Dans ce travail, nous présentons un scanner de signatures rapide pour la détection de programmes malveillants, basé sur une version améliorée de l’algorithme Aho-Corasick pour la recherche de chaînes de caractères (ou motifs), conçue pour pouvoir bénéficier des techniques de vectorisation qui ajoutent une forme de parallélisme de données au code de l’algorithme. La solution proposée est implémentée en utilisant le jeu d’instructions d’Intel® Advanced Vector Extensions (AVX2).
Cette thèse propose de concevoir et réaliser un système de reconnaissance automatique de la parole destiné à commander à distance un système audiovisuel à savoir : un Téléviseur. Le système global "bout en bout" se scinde en deux blocs : le premier cherche à extraire les meilleures caractéristiques à partir du signal vocal d’entrée. A cet effet, plusieurs techniques d’extraction de caractéristiques vont être examinées et testées. Concernant le deuxième bloc, nous mettons en évidence une multitude de techniques relevant du domaine de l’apprentissage profond, dont l’impact est d’adapter et de d’affirmer les caractéristiques extraites pour donner en final la classe de l’énoncé. La validation des différentes méthodologies présentées dans cette thèse a été effectuée sur la base de deux jeux de données réelles, le premier est tenu compte pour une évaluation initiale, tandis que le second est conçu exclusivement pour le système ASR proposé dans cette thèse. Les résultats obtenus ont certifié l’efficience des approches proposées. Le défi pour les travaux futurs est d’évaluer ce type de système dans des conditions plus réalistes avec des signaux vocaux issus des milieux bruités.
Dans cette thèse, nous nous sommes intéressés à un modèle de gestion des connaissances des entreprises industrielles. Certaines tâches manufacturières impliquent un niveau élevé de connaissance tacite des opérateurs qualifiés. L'industrie a besoin des méthodes fiables pour la capture et l'analyse de ces connaissances tacites afin qu'elles puissent être partagées et sans aucune perte. Nous proposons, un modèle de gestion contenant deux processus de gestion, le premier processus est la capitalisation des connaissances basée sur une tâche industrielle. Nous avons utilisé une combinaison de deux méthodologies : une méthodologie d’ingénierie de connaissances CommonKADS et une méthodologie d’élicitation des connaissances MACTAK. Dans la phase de modélisation, nous avons utilisé deux différentes techniques de modélisation, une modélisation basée sur les connaissances d’expert et la deuxième une représentation ontologique. Ce modèle facilite la capture des connaissances d’experts et transforme les connaissances tacites en explicites avec une maximisation des règles de production. Le deuxième processus concerne le partage des connaissances à base d’une ontologie des Tâches Manufacturières MATO en identifiant un ensemble des concepts de fabrication et leurs relations, cette ontologie proposée facilite le partage des connaissances entre les tâches de fabrication et aide à partager et à réutiliser les connaissances durant l'exécution des tâches. Ensuite, une application proposée pour le diagnostic de système d’alarme dans une centrale thermique a été présentée pour démontrer l’importance et l’apport de l’ontologie.
Améliorer la performance d’un système de reconnaissance de formes fait l’objet de recherche dans de nombreuses disciplines. On obtient cette amélioration par l’optimisation dans les différents partis du système de reconnaissance de formes : les prétraitements, l’extraction des paramètres caractéristique (primitives), la classification. Les travaux de recherche présentés dans cette thèse abordent le problème de la reconnaissance des chiffres arabe imprimés et manuscrits. L’objectif principal de ce travail est l’amélioration de la performance en terme de taux de reconnaissance par l'application d’un système multi classificateur (MCS). Différents classifieurs sont utilisés (KPPV, PMC, SVM, LDA, Arbre de décision, Naïve Bayesien, Pseudo inverse), à l’aide de différents types de vecteurs de caractéristiques extraite de l'image. Enfin, comme les performances de MCS dépendent des performances des classifieurs appliquée (les performances individuelles des classifieurs), et comme la performance d’un classifieur dépend ainsi des caractéristiques utilisé l'optimisation de l’extractions des primitives pertinentes est également abordée dans la thèse. Nous avons réalisé plusieurs simulations pour éprouver les classifications, en introduisant des améliorations dans les paramètres caractéristiques et en faisant des combinaisons de classifieurs. Dans une première partie, nous montrons l’intérêt de l’utilisation des paramètres caractéristique pertinente, à l’aide des classifieur individuelle (séparé, indépendants) comme source d’inspiration pour la conception de nouveaux paramètres. Nous proposons en particulier une amélioration de primitives pour la caractérisation des chiffres. On montre qu’il est possible de développer une solution efficace, à moindre coût en terme de réduction de vecteur caractéristique et transformation géométrique. Donc, Le système développé s’articule autour de quatre modules distincts. Un module de prétraitements, un d’extraction des paramètres caractéristique, un module de reconnaissance (classification) et un module de combinaison de classifieurs. Ce dernier est chargé de fusionner les sorties (décisions) de chaque classifieur basant sur des méthodes (règles) de fusion. Les résultats obtenus sur les bases des chiffres imprimés et la base MNIST des chiffres manuscrits sont prometteurs. Cette thèse apporte quelques contributions pour faire avancer notre compréhension dans ce domaine de recherche en pleine expansion
Dans ce travail de thèse, nous avons proposé un système de supervision appliqué sur un robot manipulateur à deux degrés de liberté. La supervision est utilisée pour assurer la reconfiguration en temps réel du robot. Dans ce système nous avons utilisé une nouvelle méthode de détection de défaut (FD) de frottement visqueux du robot supervisé combinée avec un module de commande tolérante aux défauts (FTC).Le premier module, basé sur une méthode de traitement appliquée sur des résidus, va permettre la détection de défaut pour bien estimer les corrections nécessaires du deuxième module. Une évaluation de l’effet de défaut durant la supervision a été faite. Par ailleurs, le protocole TCP pour le transfert des données entre le robot superviseur et le robot supervisé a été utilisé. Les résultats de simulation montrent que la méthode proposée corrige l’effet de défaut en utilisant les données qui arrivent d’un robot superviseur à distance. Ensuite, nous avons proposé une implémentation matérielle sur cible FPGA de l’algorithme de supervision dont le but est de valider notre contribution et d’assurer un traitement en temps réel dans le cas où il y a des robots réels. Par ailleurs, une étude comparative entre les performances des deux implémentations a été effectuée
L’objectif de ce travail de thèse et de développer des nouvelles approches permettant aux petites et moyennes entreprises d’améliorer les performances de leur processus de fabrication. Nous avons développé trois approches aspirées du Lean Six Sigma (LSS) pour l’amélioration de la production dans un contexte conventionnel et classique d'une part et d'autre part dans un contexte de production durable. Dans la première approche nous avons proposé une approche Lean Six Sigma conventionnelle pour évaluer et suivre la compétitivité d’une PME en fonction des résultats obtenus par la méthode VSM. Dans la deuxième approche, nous avons proposé une nouvelle extension de l’approche LSS vers le contexte de la production durable en incorporant des algorithmes multicritères quantitatives. Cette approche nous a permis de surmonter quelques barrières au niveau du processus de l’application du LSS. Dans La troisième approche nous avons présenté une amélioration de l’approche LSS qui vise à montrer l’effet positif des algorithmes multicritères qualitatives flous pour surmonter certaines barrières du Lean Six Sigma liées aux phases d’analyse et d’amélioration de l’état actuel des processus de fabrication. Les approches proposées sont appliquées dans deux entreprise algériennes pour améliorer et contrôler la durabilité de leurs processus de fabrication.
Les systèmes industriels deviennent plus complexes en raison, notamment, de leur taille croissante et de l’intégration des nouvelles technologies. En vieillissant, ces systèmes deviennent plus vulnérables aux défaillances et leurs activités de maintenance sont difficiles et coûteuses. Cette situation, combinée aux exigences de productivité, de croissance des bénéfices, de disponibilité opérationnelle et de sécurité, pousse les praticiens et les chercheurs à développer des outils et des méthodes innovants. Les activités de maintenance constituent l’un des leviers possibles. En entretenant le système, nous pouvons réduire les coûts globaux de son cycle de vie, augmenter sa disponibilité, améliorer la sécurité des opérateurs et réduire les incidents environnementaux. Les tâches de maintenance peuvent être soit curatives, soit préventives. Cependant, cela n’est pas encore suffisant parce que les pièces de rechange ne sont pas disponibles ou pas suffisantes au moment de la panne ou simplement parce que les ressources nécessaires (les responsables de la maintenance) sont occupées. Une "meilleure" solution pourrait alors être une maintenance prédictive, qui peut être effectuée dans le framework du pronostic. Dans ce cadre nous essayons de prévoir l’état de santé du système, puis on planifie les actions appropriées en fonction des résultats des prévisions. Ce travail s’inscrit dans au domaine du pronostic de la PHM et de la gestion de la santé. Les techniques de PHM visent à prédire la durée de vie restante de l’équipement. Cependant, elles ont eu tendance à être utilisées dans un contexte local avec une intégration limitée des solutions distribuées. Dans les systèmes complexes, le comportement émergent est plus compliqué que la somme des comportements de leurs parties constitutives. Ce comportement implique la propagation de défauts entre les parties et nécessite des informations sur la façon dont les parties sont liées. Dans cette thèse, nous proposons une approche multi-agent pour la prédiction de la RUL au niveau du système. Ensuite, l’approche proposée est étendue à la PHM médicale avec une étude de cas
Cette thèse traite de l'utilisation d'un outil de Machine Learning appelé "Extreme Learning Machine" dans le domaine du pronostic et de l'évaluation de la santé (e.g. estimation de la durée de vie utile restante (RUL)). Cet algorithme implique des méthodes de programmation linéaires qui reposent principalement sur les moindres carrés dans les paradigmes non linéaires des réseaux de neurones artificiels pour produire des estimateurs de santé très rapides et précis. D'autres parts, cette étude vise à distribuer le système de prédiction sur le web à l'aide de services Web pour résoudre les problèmes de répartition géographique de surveillance décentralisée. Sur la base de ce nouvel outil, de nombreux algorithmes d'apprentissage ont été développés dans le cadre de ce travail et comparés à d'autres algorithmes présents dans la littérature en termes de temps et de précision. La plupart des algorithmes développés sont inspirés des théories récentes de Deep Learning et ce en raison de leur bonne réputation. Les données étudiées dans ce travail de recherche sont tirées du logiciel C-MAPSS simulateur de système de propulsion aérodynamique développé par la NASA. Les résultats obtenus ont prouvé l'efficacité des nouveaux algorithmes et les recommandent pour une utilisation future dans le domaine de l'évaluation de la santé.
In this paper we address the integration of two-level supply chain with multiple items, production facility and retailers’ demand over a considered discrete time horizon. This two-level production distribution system features capacitated production facility supplying several retailers located in the same region. If production does take place, this process incurs a fixed setup cost as well as unit production costs. In addition, deliveries are made from the plant to the retailers by a limited number of capacitated vehicles and routing costs are incurred. This work aims at implementing a solution to minimize the sum of the costs at the production facility and the retailers. The methodology adopted to tackle this issue is based on a hybrid heuristic, greedy and genetic algorithms that uses strong formulation to provide a good solution of a guaranteed quality that are as good or better than those provided by the MIP optimizer with a considerably larger run time. The results demonstrate that the proposed heuristics are effective and performs impressively in terms of computational efficiency and solution quality.
Digital twins have transformed the industrial world by changing the development phase of a product or the use of equipment. With the digital twin, the object’s evolution data allows us to anticipate and optimize its performance. Healthcare is in the midst of a digital transition towards personalized, predictive, preventive, and participatory medicine. The digital twin is one of the key tools of this change. In this work, DT is proposed for the diagnosis of breast cancer based on breast skin temperature. Research has focused on thermography as a non-invasive scanning solution for breast cancer diagnosis. However, body temperature is influenced by many factors, such as breast anatomy, physiological functions, blood pressure, etc. The proposed DT updates the bio-heat model’s temperature using the data collected by temperature sensors and complementary data from smart devices. Consequently, the proposed DT is personalized using the collected data to reflect the person’s behavior with whom it is connected.
In this paper, our objective is dedicated to the detection of a deterioration in the estimated operating time by giving preventive action before a failure, and the classification of breakdowns after failure by giving the action of the diagnosis and / or maintenance. For this reason, we propose a new Neuro-fuzzy assistance prognosis system based on pattern recognition called "NFPROG" (Neuro Fuzzy Prognosis). NFPROG is an interactive simulation software, developed within the Laboratory of Automation and Production (LAP) -University of Batna, Algeria. It is a four-layer fuzzy preceptor whose architecture is based on Elman neural networks. This system is applied to the cement manufacturing process (cooking process) to the cement manufacturing company of Ain-Touta-Batna, Algeria. And since this company has an installation and configuration S7-400 of Siemens PLC PCS7was chosen as a programming language platform for our system.
The automation of manufacturing systems is a major obligation to the developments because of exponential industrial equipment, and programming tools, so that growth needs and customer requirements. This automation is achieved in our work through the application programming tools from Siemens, which are PCS 7 (Process Control System) for industrial process control and FuzzyControl++ for fuzzy control. An industrial application is designed, developed and implemented in the cement factory in Ain-Touta (S.CIM.AT) located in the province of Batna, East of Algeria. Especially in the cement mill which gives the final product that is the cement.
Solar radiation forecasting is an important technology that is necessary to increase the performance, management, and control of modern electrical grids. It allows energy regulators to estimate the near-future output power of solar power plants, and can help to reduce the effects of power fluctuations on the electricity grid, thus increasing the overall efficiency and power quality of those plants [1]. However, the variable nature of solar irradiance poses a challenge in the exploitation of solar energy. In this context, forecasting techniques are now essential to ensure sustainable, reliable, and cost-effective solar energy production [2]. This paper proposes a hybrid machine learning model to forecast Global Horizontal Irradiance (GHI) in the short term (1-hour ahead). The experimental assessment of the model is done on the basis of an experimental dataset of 11 years of hourly GHI measurements from the BSRN Tamanrasset station in Algeria. The general framework of the proposed model is explained in Figure 1, and its main steps are summarized as follows: