• Détection automatique du risque. Application à la santé mentale.
Thème : Prédire la dépression ou l’anorexie à partir des contenus textuels produits par les utilisateurs des réseaux sociaux. Professeurs impliqués : Marie-Jean Meurs Étudiants : Diego Maupomé (maîtrise en informatique), Antoine Briand (maîtrise en informatique), Marc Queudot (maîtrise en informatique), Hayda Almeida (doctorat en informatique)
  • Détection des données sensibles échangées dans les communications professionnelles.
Thème : Détecter et analyser la diffusion des données sensibles dans les échanges professionnels. Professeurs impliqués : Marie-Jean Meurs Étudiants : Antoine Briand (maîtrise en informatique), Sara Zacharie (maîtrise en informatique)
  • Intelligence artificielle, éthique, justice et droits humains.
Thème : Promouvoir un développement éthique et responsable de l’intelligence artificielle. Collaboration : Sébastien Gambs, Hugo Cyr Professeurs impliqués : Marie-Jean Meurs Étudiants : Marc Queudot (maîtrise en informatique, supervision MJM), Stéfanny Beaudoin (maîtrise en droit, supervision HC), Henry Pineau (maîtrise en informatique, supervision SG). D’autres étudiants sont régulièrement impliqués sur des travaux ponctuels.
  • Justice prédictive.
Thème : Prédire l’issue de jugements. Application aux décisions de la Cour Fédérale. Collaboration : Hugo Cyr Professeurs impliqués : Marie-Jean Meurs Étudiants : Marc Queudot (maîtrise en informatique, supervision MJM), Stéfanny Beaudoin (maîtrise en droit, supervision HC)
  • Analyse de données académiques massives.
Thème : Proposer une représentation des données académiques de l’UQAM, extraire des profils de parcours universitaires et prédire les chances de succès des étudiants selon le parcours choisi. Professeurs impliqués : Marie-Jean Meurs et  Mohamed Bouguessa Étudiants : Khalid Askia (maîtrise en informatique, supervision MJM), Fares Ben Slimane (maîtrise en informatique, supervision MB), Paul Laplace (stagiaire niveau maîtrise, supervision MB). Depuis le début du projet : Antoine Dallaire (stagiaire niveau maîtrise, supervision MJM), Eva Marquès (stagiaire niveau maîtrise, supervision MJM)
  • Collecte et fouille de données massives générées par les utilisateurs de jeux vidéo massivement multijoueurs en ligne.
Thème : Analyser les données massives des communautés de joueurs pour en comprendre la dynamique et en prédire les évolutions. Professeurs impliqués : Marie-Jean Meurs et Maude Bonenfant Étudiants depuis le début du projet : Antoine Briand (maîtrise en informatique, supervision MJM), Marc Queudot (maîtrise en informatique, supervision MJM)
  • B. Nit
Nit est un langage de programmation ainsi qu’un cadre pour la recherche et l’enseignement.
Le langage de programmation Nit cherche à réconcilier l’expressivité et la simplicité des langages de script avec la sûreté et le passage à l’échelle des langages statiquement typés. En tant que cadre pour la recherche et l’enseignement, Nit est un outil pour l’étude la spécification et l’implémentation des langages à objets statiquement typés.
  • C. SableCC
SableCC est un générateur de parseurs qui génère un framework objet complet pour le développement de compilateurs, interpréteur et autres outils. En particulier, le code généré inclut les classes d’un arbre syntaxique abstrait et de divers visiteurs.
SableCC maintient aussi une séparation propre entre le code généré et celui de l’utilisateur ce qui améliore le développement.
  • L’adoption de l’Automatisation Robotisée de Processus : Une approche par l’analyse de processus d’affaires
Source de subvention : 15 000 $ (MITACS)
Professeurs impliqués : Abderrahmane Leshob (UQAM), Laurent Renard (UQAM)
Étudiante : Audrey Bourgouin (MSc) (UQAM)
Résumé : 
L’Automatisation de Processus d’Affaires (APA) est reconnue comme étant efficace pour améliorer la productivité des organisations. L’Automatisation Robotisée de Processus (ARP) est une approche d’APA permettant d’automatiser les tâches répétitives qui sont fondées sur des règles d’affaires préétablies. L’implantation de la technologie supportant l’approche ARP est présentée comme étant peu coûteuse et facile à réaliser. Cependant, au meilleur de notre connaissance, aucune étude n’a porté spécifiquement sur l’élaboration d’une approche permettant aux organisations d’adopter efficacement l’ARP pour automatiser leur processus d’affaires. Ce projet de recherche vise à élaborer une nouvelle méthode permettant d’analyser des processus d’affaires et d’identifier les processus qui conviennent à l’ARP. La méthode élaborée dans le cadre de ce projet de recherche permettra aux organisations d’adopter efficacement l’ARP pour automatiser leur processus d’affaires et ainsi leur permettre d’améliorer leur productivité et la qualité des services fournis. 
  • From Business Process Models to Service-Oriented Architecture Models
Source de subvention : 10 000 $ (PAFARC UQAM),  (Demande CRSNG – Subvention à la découverte 2018)
Professeurs impliqués : Abderrahmane Leshob (UQAM), Javier Gonzalez Huerta (LATECE), Hafedh Mili (LATECE).
Étudiants : Blal Redouane (MSc) (UQAM), (À recruter) (PhD)
Résumé : 
Service-oriented architecture (SOA) is a fast emerging architectural style to implement dynamic e-business solutions. It has been widely adopted by modern organizations to design and implement information systems that support their business processes. Benefits of using SOA include reuse, model-driven implementation, service composition, better integration through standardization, and business process management. This project aims to bridge the gap between business processes and SOA-based software applications that support them. It proposes a novel model-driven development method that generates SOA services from the specification of business processes expressed in BPMN.
  • Approche méthodologique de Process Mining pour des processus inter-organisationnels performants
Source de subvention :  Subvention du Ministère de l’Enseignement Supérieur et de la Recherche Scientifique – Algérie
Professeurs impliqués : Abderrahmane Leshob (UQAM), Abdessamed Réda Ghomari (École Nationale Supérieure d’Informatique), Javier Gonzales Huerta (LATECE)
Étudiante : Moufida Aouachria (PhD) ( ancienne stagiaire LATECE) 
Résumé : 
La globalisation des marchés et le développement rapide des technologies de l’information et de communication font émerger de nouvelles formes organisationnelles (entreprises étendues, virtuelles, etc.) rendant ainsi les modèles de processus métiers plus complexes traversant les frontières des organisations. Ces derniers peuvent se confronter aux différents problèmes d’interopérabilité. L’objectif de ce travail de thèse consiste à élaborer une nouvelle méthode basée sur des patrons de processus pour i) analyser les processus privés des organisations, ii) identifier les problèmes d’interopérabilité lors de l’intégration des processus, iii) résoudre ces problèmes, et iv) construire un modèle de processus d’affaires inter-organisationnel.
  • Protecting location privacy in the online and offline contexts (NSERC discovery grant, NSERC Discovery accelerator supplement program) :
Source de subvention :  2016/5 – 2021/5 : Natural Sciences and Engineering Research Council of Canada (NSERC), Discovery grant  – 190,000
2016/4 – 2019/3 : Natural Sciences and Engineering Research Council of Canada (NSERC), Discovery accelerator supplement program, Total Funding – 120,000
Professeurs impliqués :  Sébastien Gambs Étudiants et stagiaires : Antoine Laurent, Henri Pineau et Alexandre Martin Résumé : 
The advent of Location-Based Services (LBSs), which personalize the information provided according to the position of their users (e.g., geolocated search), has been accompanied by the large-scale collection of their mobility data. On the one hand, these mobility datasets have a high scientific, societal and economical value. On the other hand, learning the location of an individual is one of the greatest threats against his/her privacy due to its strong inference potential and the possibility of deriving a wealth of personal information. In particular in the past, I have designed inference attacks that use the location data of a user to deduce other personal information (such as the points of interests characterizing his/her mobility), to predict his/her future movements or even to perform a de-anonymization attack.
The scope of my research program covers two different contexts in which the location privacy of a user should be protected. The first context corresponds to the situation in which the user is online (i.e., when he/she benefits from a location-based service in real-time). In this setting, I propose to investigate two different approaches whose objective is to enable privacy-preserving LBSs to operate while minimizing the trust assumptions: the local computation approach and the cooperative one. The second context considered is the offline setting, in which the location data of thousands of users has been collected and has to be sanitized before it is released (e.g., before opening or sharing this data). More precisely, during my discovery grant I propose to work on the design of sanitization methods for mobility mining, whose objective is to produce a data structure that can be used to derive generic mobility patterns of the population while hiding individual movements. Finally at the fundamental level, I am deeply interested in how to model and quantify location privacy in a manner that is both meaningful and useful for practitioners who need to assess the privacy risks of processing, sharing and collecting location data. Thus I propose to study how to integrate the semantic dimension in the currently existing location privacy models.
The societal impact of my research program’s outcomes can be important, as they have the potential to improve significantly the privacy situation of users of LBSs. In addition, the solutions developed will act as enablers by helping Canadian companies to implement privacy-preserving LBS. In particular, a major social and economic challenge is to foster the development of LBS while providing sufficient privacy guarantees. Thus, privacy-preserving LBS have to be developed to avoid the transformation of Big Data into Big Brother, and the results of my research program will directly contribute to this. Finally, the research conducted will be done in cooperation with and contribute to the formation of HQP (i.e., PhD and master students).
  • Modèle collaboratif pour «l’Internet of Things (IoT) » selon le contexte

Source de subvention : 30000CAD par le fonds de l’UQAC + 36 000 CAD financé par les fonds internationaux de l’UQAC (15 000)+ Fonds de recherche du professeur Rebaine 6000,  ainsi que par l’UQAR (14 000).

Professeurs impliqués :  Mehdi Adda (UQAR), Djamal Rebaine (UQAC), Hamid Mcheick (UQAC)

Étudiants et stagiaires : Jabril Abdeaziz (PhD), Ghassan Fadlallah PhD), Zayan Elkhaled (PhD), Rebab Saad (Msc), Karam Mustapha (Postdoc)

Résumé :

L’objectif de ce projet de recherche est de proposer un nouveau modèle collaboratif pour l’IoT. L’idée est intéressante et importante aux niveaux économique, social ou commercial. Les avantages de cette nouvelle ère sont aussi prometteurs. Cette recherche est entreprise en collaboration avec messieurs D. Rebaine de l’UQAC et Adda de l’UQAR. Les résultats que nous avons obtenus ont été publiés dans trois articles de conférences. Ces travaux font l’objet de deux thèses de doctorat (J. Abdelaziz et G. Fadlallah) et d’un mémoire de maîtrise en informatique (R. Saad, terminé en juin 2016) à l’UQAC.

-       Méthodologie

L’objectif concerne la résolution de différents problèmes liés à l’interopérabilité, à la collaboration et au partage de données dans l’IoT en tenant compte du contexte de l’utilisateur. Mes étudiants et moi-même avons réalisé un modèle architectural collaboratif pour supporter l’interopérabilité des objets intelligents, l’identification et leur l’utilisation, ainsi que la découverte des services offerts selon les différents composants de l’IoT. Au niveau de l’IoT, les fonctionnalités du dispositif sont regroupées sous forme de services afin d’interagir avec l’ensemble des objets intelligents, où les services Web traditionnels servent à réaliser graduellement l’intégration entre le monde physique et le monde numérique. Cet environnement dynamique et exigeant, en matière d’approche de découverte de service de contexte, vient remplacer les services Web traditionnels et, de ce fait, apporter de nouveaux défis pour la découverte de services dans l’IoT.

  • Méthode et outil des jeux sérieux pour les personnes malvoyantes

Source de subvention : 10 000 CAD par l’UQAC, obtenu par le professeur Ménélas.

Professeurs impliqués : Professeurs : Bob Menelas (UQAC), Hamid Mcheick

Étudiants et stagiaires : Mohamed message (Msc)

Résumé :

Le pourcentage de la population souffrant d’une déficience visuelle augmente chaque année d’environ 2 millions de personnes dans le monde et le nombre d’aveugles devrait doubler d’ici 2030. L’Organisation mondiale de la Santé (OMS) estime qu’il y a 39 millions d’aveugles et 246 millions de personnes ayant des déficiences visuelles sur la planète (OMS, 2011). Au Canada, on estime à plus de 666 000 le nombre d’aveugles ou de personnes souffrant de troubles sérieux de la vision. L’adaptation des aveugles dans les sociétés, y compris la nôtre, est un enjeu de plus en plus important. Plusieurs produits et dispositifs dits intelligents pour les personnes ayant une déficience visuelle ont été mis sur le marché au cours des quatre dernières décennies, incluant les cannes intelligentes et portatives. Même si tous ces dispositifs ont grandement amélioré la qualité de vie des aveugles, une problématique demeure, bien que très rarement mentionnée : le jeu chez les aveugles. L’objectif de ce projet est de concevoir et développer des jeux pour les activités de loisir, psychique ou physique chez les aveugles. Ces travaux font l’objet d’un mémoire de maîtrise en informatique (M. Messaoudi) et d’un brevet en cours d’homologation à l’UQAC, d’expérimentation et de publications en préparation.

-       Méthodologie

Nous travaillons présentement à la conception de jeux et de dispositifs pour aider les individus malvoyants à améliorer leur qualité de vie. On pense souvent au côté pratique de celle-ci, mais la stimulation cérébrale est parfois laissée de côté. Par jeu, on entend évidemment activité de loisir, psychique ou physique. Dans le cas des malvoyants, on parle principalement de jeux psychiques. Ceux-ci sont excessivement difficiles à concevoir, car créer un jeu stimulant et amusant, en délaissant volontairement le sens de la vue, est une tâche des plus complexes. Les quatre autres sens disponibles chez les aveugles sont enrichis et c’est sur cette idée que les créateurs se basent pour concevoir un jeu. Le résultat est souvent très inusité et de ceux-ci naissent des jeux particulièrement singuliers et surprenants. Nous sommes en train de concevoir une canne intelligente en utilisant une stimulation tactile et sonore. Nous avons utilisé un clavier de 12 cases, une carte Arduino, une canne et la plateforme Android pour l’expérimentation.

  • Recherche d’information par facettes 

Source de subvention : 49 000 $ CAD par les fonds internationaux de l’UQAC (10 000 $) et par l’UQAR (39 000 $).

Professeurs impliqués : Mehdi Adda (UQAR), Hamid Mcheick

Étudiants et stagiaires : Amel Hannech (PhD)

Résumé :

L’objectif de ce projet est de concevoir, mettre en œuvre et valider un moteur de recherche basé sur des multi-espaces afin d’améliorer la pertinence des résultats de recherche d’information et faciliter l’exploration des grandes collections de données. Cette recherche est entreprise en collaboration avec le professeur Adda de l’Université du Québec à Rimouski (UQAR). L’originalité de cette contribution réside dans la volonté d’intégrer dans un même système, à travers des objectifs clairs et précis, des éléments de recherche d’information, de représentation des connaissances, de recherche de données, de personnalisation Web et de réseaux sociaux. Les résultats ont été publiés dans trois articles de conférences et un article revu par les pairs. Ces travaux font l’objet d’une thèse de doctorat en informatique à l’UQAC (A. Hannech), qui sera déposée incessamment.

-       Méthodologie

Hannech, Adda, et moi avons proposé une nouvelle approche de recherche qui fait face à la surcharge de données disponibles sur le Web. Pour y parvenir, nous avons développé une nouvelle façon de représenter et d’enrichir du contenu basé sur la projection multi-espaces et utilisant les ontologies et les réseaux sociaux. Ces espaces sont liés au contenu et à son enrichissement. Ils sont liés les uns aux autres par diverses relations de projection. Cela permet d’avoir des termes appartenant à différents espaces de représentation dites espaces de projection ou univers d’indexation, chacun représentant un aspect différent utilisé pour décrire nos contenus.

  • Intelligent Cloud Computing Framework

Source de subvention : 45 000 $ CAD par les fonds internationaux de l’UQAC, Canada (15 000 $) et l’organisation Elazem du Liban (30 000 $).

Professeurs impliqués :  Mohamed Dbouk (Université Libanaise), Hamid Mcheick

Étudiants et stagiaires : Ahmad Karawash (PhD)

Résumé :

Ce projet vise à concevoir, mettre en oeuvre et tester un cadre de développement des applications orientées service (SOA) : Intelligent Cloud Computing Framework. Ce projet est entrepris en collaboration avec le professeur Dbouk de l’Université libanaise et avec le professeur E. Grant de l’Université du Dokota du Nord. Les résultats ont été publiés dans cinq chapitres de Springer et de Cambridge Scholars Publishing, un article (Best Papers) de conférence (ICIS 2013-Springer/IEEE, Japon), et des dizaines d’articles revus par les pairs, et conférences reconnues dans le domaine. Ces travaux ont fait l’objet de deux thèses de doctorat en informatique à l’UQAC. Nous avons proposé une méthode et un cadre pour résoudre les problèmes de composition des services, de validation des services Cloud durant l’exécution, de sélection des meilleurs services tout en imitant le système du corps humain dans lequel vivent des milliards de cellules travaillant ensemble pour atteindre des résultats précis.

-       Méthodologie

La théorie orientée cellule est la représentation modulaire des caractéristiques de cellules humaines du point de vue de la science informatique. Il s’agit d’une unité de traitement virtuelle flexible et évolutive qui traite les systèmes informatiques complexes distribués d’une façon intelligente par décisions. Nous proposons ce concept collaboratif afin de concevoir des logiciels généralement ciblés pour des appareils informatiques de ressources Web et d’offrir des collaborations intelligentes entre ces appareils. Cette approche est conçue pour répondre aux exigences de Web intelligents et vise à atteindre enfin une ambiance et un environnement Web intelligent. Les cellules sont maintenues d’une façon autonome, elles soutiennent une analyse autonome des communications et sont en mesure de soutenir le mécanisme de collaborations.

  • Cadre informatique multiplateformes d’assistance médicale à distance

Source de subvention : 100 000 $ CRSNG 2017-2022 / 10 000 $CAD (Centre de recherche de l’UQAC et CHUL).

Professeurs impliqués :  Hafedh Mili, Hamid Mcheick

Étudiants et stagiaires :  Lokman Saleh (Msc), Hicham Ajami (Phd), Konan Kouame (PhD), Rania Taleb (Msc)

Résumé :

Grâce aux différents collaborateurs provenant de plusieurs disciplines, nous explorons dans cette proposition les saines habitudes de vie de différentes clientèles : handicaps physiques et sensoriels, maladies congénitales, etc. Ce projet est en cours de conception, en collaboration entre notre Centre de recherche interdisciplinaire sur la qualité et les saines habitudes de vie (cinq départements de l’UQAC) et le Centre Hospitalier de l’Université de Laval (CHUL). Ce dernier propose des instruments de mesures et de surveillance adaptés aux besoins spécifiques des usagers ainsi que différentes méthodes d’entraînement à domicile à l’aide d’interfaces personne-machine bioniques novatrices afin d’augmenter l’autonomie à domicile et d’améliorer les conditions de vie. Notre rôle est de s’occuper de l’axe de technologies qui consiste à réaliser un cadre informatique multiplateformes d’assistance médicale à distance en collaboration. Cette recherche a fait l’objet d’un projet-stage en maîtrise (A. Charmiti) et deux stages au baccalauréat (M. Laliberté et R. Houdant) en informatique en concevant un outil Kinotech. Les résultats ont été publiés dans un article-conférence e-Health 2015 et l’outil Kinotech est utilisé actuellement par le CHUL. 

-      Méthodologie (axe 1) : Nous utilisons l’approche par itération incrémentale pour laquelle chaque itération consiste à concevoir, mettre en œuvre et valider une nouvelle exigence. Pour ce faire, nous avons développé un cadre et nous mettrons à contribution un nouvel étudiant au doctorat pour mener à bien ce projet. Un protocole a été conçu et testé dans le but de faciliter la communication entre les patients et les soignants. Plusieurs technologies ont été utilisées, par exemple : REST, Sockets, Web Socket, RXTX (Arduino), Oracle, etc.

  • Faster Compressed Indexes On Next-Generation Hardware
Source de subvention: 
42,000 sur 5 ans, débutant à l’été 2017 (210 000 $)[discovery grant--Programme de subventions à la découverte] + 40,000 sur 3 ans, débutant à l’été 2017 (120 000 $) [accelerator grant--Programme de suppléments d'accélération à la découverte]
Professeurs impliqués: Daniel Lemire
Étudiants et stagiaires :
doctorat : Chong Liu, Dara Aghamirkarimi, Xueping Dai, Pierre Marie Ntang 
maîtrise : Marina Lopez Stagiaire de premier cycle : Niko Girardelli, hiver 2018
Résumé :
Les index logiciels accélèrent les applications en intelligence d’affaire, en apprentissage machine et en science des données. Ils déterminent souvent la performance des applications portant sur les mégadonnées. Les index efficaces améliorent non seulement la latence et le débit, mais aussi la consommation d’énergie. Plusieurs index font une utilisation parcimonieuse de la mémoire vive afin que les données critiques demeurent près du processeur. Il est aussi souhaitable de travailler directement sur les données compressées afin d’éviter une étape de décodage supplémentaire. Ainsi nous utilisons des techniques de compression légères, optimisées pour la vitesse. Nous nous intéressons aux index bitmap. Nous les trouvons dans une vaste gamme de systèmes: Oracle, Hive, Spark, Druid, Kylin, Lucene, Elastic, Git… Ils sont une composante de systèmes — tels que Wikipedia ou GitHub — dont dépendent des millions d’utilisateurs à tous les jours. Notre plan comporte trois axes de recherche : (1) Poursuivre l’optimisation des index bitmap, tels qu’ils sont utilisés au sein des systèmes actuels. Plusieurs de ces systèmes dépendent des index Roaring et EWAH, deux formats que nous avons développés. Nous prévoyons multiplier la performance de ces index sur les processeurs bénéficiant d’instructions SIMD (instruction unique, données multiples) avancées.(2) Continuer de battre des records de vitesse avec nos techniques de compression d’entiers. Nous ciblons les listes d’entiers que l’on trouve au sein des arbres B+, dans les index inversés et les index bitmap compressés. Ces dernières années, nous avons montré que l’on pouvait décoder des milliards d’entiers par seconde tout en maintenant des ratios de compression proches de la limite entropique de Shannon. Ce faisant, nous n’avons utilisé qu’une fraction des capacités des derniers processeurs. Nous établirons de nouveaux records de performance tout en compressant davantage les données. Nous allons aussi accélérer les applications avec des fonctions de rang, de sélection, de fusion, de mise à jour et d’insertion opérant directement sur les données compressées. Nous allons appliquer nos travaux aux moteurs de bases de données (par ex., upscaledb) et aux systèmes de mégadonnées (par ex., Parquet, Druid, Spark, etc.).(3) Développer un nouveau format d’index bitmap qui surclasse les techniques de pointe tant en ce qui a trait à l’utilisation de la mémoire qu’à la vitesse. Actuellement, un des meilleurs formats est Roaring: il est largement adopté, rapide et il utilise peu de mémoire. Nous souhaitons concevoir un nouveau format qui utilise encore moins de mémoire tout en améliorant la vitesse. Alors qu’il est relativement facile d’offrir une meilleure compression, le faire tout en améliorant la vitesse des requêtes représente un véritable défi. Cet axe de recherche repose directement sur les deux précédents.
  • Towards a new API for big data analysis
Source de subvention : projets Européens
Professeurs impliqués: Guy Tremblay (Latece), Marco Aldinucci (Prof., Università degli studi di Torino)
Étudiants et stagiaires: Claudia Misale (IBM T.J. Watson Research Center), Maurizio Drocco (Postdoc. Univ. di Torino) Résumé : With the increasing number of big data analytics tools, it becomes difficult for a user approaching analytics to have a clear picture of the expressiveness they provide to solve user-defined problems. Our first aim is to review the features typical big data analytics tools (e.g., Spark, Storm, Flink, Beam) provide to the user in terms of API and how they relate to parallel computing paradigms.  More precisely, those well-known tools will be analysed a described in terms of a common computation model underlying all of them, namely, the Dataflow model.  This common model is the key to compare the expressiveness and the theoretical scalability of the presented big data tools. On top of the dataflow model, we will define a stack of layers, where each layer represents a dataflow graph with a different meaning, describing a program from what is exposed to the programmer down to the underlying execution model layer.We also aim to develop a new C++ API with a fluent interface that aims at making easier the programming of data analytics applications while preserving or enhancing their performance. This will be attained through three key design choices: 1) unifying batch and stream data access models, 2) decoupling processing from data layout, and 3) exploiting a stream-oriented, scalable, efficient C++11 runtime system. This API will propose a programming model based on pipelines and operators that are polymorphic with respect to data types in the sense that it is possible to re-use the same algorithms and pipelines on different data models (e.g., streams, lists, sets, etc.).
  • CMMN-compliant tool for the specification and execution of declarative processes for adaptive case management

Source de subvention : XEROX PARC (USA), CRSNG (EGP), Trisotech Inc.

Professeurs impliqués: Hafedh Mili (Latece), Javier Gonzales-Huerta (Latece)

Étudiants & stagiaires: Anis Boubaker, Renata de Carvalho

Résumé : It is 3:00 pm. You pop-up your 65th shipment order of the current shift. You look for books in the shelves, pick a box of the right size, put the books in the box. Print a shipping slip and an address label, put the slip in the box, close the box, paste the shipping label, and put the box on the conveyor belt.  It is labor day week-end. Jogger A comes in complaining of chest pain. You measure their blood oxygen level. It is normal. No history of heart problems. You order an EKG to be done when the EKG machine is free. Ambulances brings too baseball players B and C who knocked heads at third base. Both have a royal headache, and B  keeps fainting. You order an EKG for B, to be done ASAP, and CAT-scans for both. As you start connecting the just-freed EKG machine to B, ambulances bring in D and E who crossed paths on a biking trail. There is some bruising, bleeding, and perhaps fractured bones. While you try to figure out what to do with D and E, patient A faints in the waiting room.  Skeptics argue that BPM and BPM systems (BPMS) have only solved the ‘easy problems’, such as our Amazon warehouse work: 1) business processes where a handful of contingencies handle all situations, and 2) processes where most of the activities can be automated. However, complex and knowledge intensive processes do not lend themselves to such rigid formalizations. In the ER example, the way a patient is handled depends on, 1) what brings them to ER (type of ailment and severity), 2) their medical history, and 3) what else is happening in ER at that time.  ER staff have more or less well-defined protocols to follow, but are otherwise left to contend with, 1) tasks that are mostly manual (e.g. taking a blood sample) and knowledge intensive (diagnosis), 2) different instances of the same process that compete for scarce resources, and 3) the urgency to act. This project aims at developing languages and tools for the specification and execution of such processes so that, 1) the protocols and constraints inherent in such processes can be specified and enforced, without imposing a predetermined task flow, and 2) information and resource sharing can occur across competing instances of the same process.

  • Réingénierie Architecturale Orientée Services de Logiciels Légataires Orientés Objet

Source de subvnetion: Fonds Québécois de Recherches en Nature et Technologies – projets en équipe

Professeurs impliqués : Ghizlane ElBoussaidi (LATECE), Yann-Gael Guéhéneuc (LATECE), Hafedh Mili (LATECE, PI), Naouel Moha (LATECE), Petko Valtchev (LATECE), Jean Privat (LATECE)

Étudiants & stagiaires: Manel Abdellatif (PhD, Polytechnique), Leith Gardabbou (DESS, UQAM), Anas Shatnawi (Postdoc, UQAM), Marie-Pier Lessard (BS, UQAM)

Résumé: L’architecture orientée services perçoit les applications d’affaires comme des orchestrations de services réutilisables déployés à travers l’organisation. Ce paradigme est né de la convergence d’un besoin d’affaires, et d’une évolution technologique permettant d’y répondre. Tant l’optimisation des processus d’affaires intra- et inter-organisationnels, que la mise en marché de nouveaux produits et services, se heurtent à l’hétérogénéité des applications existantes, et à leur faible potentiel de réutilisation. Des percées au niveau des normes et des architectures distribuées ont rendu possible le développement d’applications complexes par intégration de composants réutilisables, hétérogènes, et relativement indépendants, c-à-d, des services. Encore faut-il restructurer les applications existantes pour s’y conformer. Ce projet vise la restructuration architecturale orientée services d’applications légataires orientées objet en, 1) analysant leur code pour y identifier des services potentiels, 2) encapsulant les fonctions ainsi identifiées dans des interfaces de services, et 3) restructurant le code existant pour rediriger les invocations de ces fonctions à travers ces interfaces. Notre projet est novateur parce que, 1) il vise à offrir une solution complète depuis l’identification des services dans une application légataire, jusqu’à la restructuration complète de cette application, 2) les algorithmes proposés tiennent compte de la complexité des applications légataires, d’une typologie fine de services, et des variantes technologiques de services, et 3) il met à profit les compétences complémentaires des membres de l’équipe en ré(tro)ingénierie de logiciels, en conception architecturale, en transformation de modèles, et en classification conceptuelle.

  • Towards developing software from a description of the business processes that they support

Source de subvention: CRSNG – Subvention à la découverte

Professeurs impliqués: Hafedh Mili, Javier Gonzalez-Huerta, Abdel Leshob

Étudiants & stagiaires: Anis Boubaker

Résumé: Organizations build information systems to support their business processes. One would expect organizations that use the same business processes to be able to use or reuse the same IT infrastructure. This may be true at the enterprise architecture level but does not translate into reuse at the more concrete software artifact level, where most of the IT resources are spent. There are many reasons for this. First, there is a wide variety of business processes for doing anything, from procurement, to logistics, to financials, which may share a common core, but differ in the detail. Second, for any given business process, there are different levels of IT support, ranging from a simple recording of the activities of an essentially human process, to full process automation. Model-driven development [BROW04], and software reuse in general, have achieved much progress in deriving software models at development stage n, from software models at stage n-1. They have done this either by codifying good solutions to recurrent problems (patterns, analysis, architectural, or design), or by codifying the transformations (from platform-independent/PIM to platform-specific models/PSM, or from PSM to code as supported by CASE tools), or both. However, much remains to be done for the transformation from business process models (as computation independent models, or CIMs) to analysis software models (PIM)s. This is the transformation that we propose to investigate in this work.

  • Towards a Business-Aware Framework for the Analysis and Design of Context-Aware e-Commerce Applications

Source de subvention: CRSNG (SEP), Orckestra Inc (www.orckestra.com), Mediagrif Inc. (www.mediagrif.com)

Professeurs impliqués: Hafedh Mili, Zandra Balbinot, Mounir Boukadoum, Mohammed Bouguessa, Petko Valtchev

Étudiants & Stagiaires: Imen Benzarti, Anis Boubaker

Résumé : Imagine that you enter your favourite grocery store and are greeted with a flashing screen display:   »Bonjour [Cathy/Jean]« . In the meat section, you receive an SMS regarding the special on lamb chops that you are known to like. As you pick the lamb chops, you get another SMS recommending a Pinot Noir. Walking through the junk food isle, you drop a bottle of soda in the shopping cart, and get an SMS « Dr. Smith won’t like it! ». You walk by the diapers section and you are notified of a special on size 6 diapers because you have been buying size 5 diapers for the past three months.This is an example of a new generation of context-aware customer experience applications (CA-CEM) that take advantage of ubiquitous computing (the internet of things) and reams of data about customers and their shopping habits, to adapt a company (or organization)’s products and services to its customers’ needs/desires. Ethical issues notwithstanding, how to design such applications, from business decisions to technological implementations? What stages of the scenarios could benefit from IoT? What do these applications need about the customers? What functionalities should IoT vendors offer to retailers to implement their CA-CEM scenarios? The purpose of this project is to develop a methodology and a software framework to support 1) the business designof CA-CEM scenarios, 2) the software design of CA-CEM functionalities, and 3) the (partial) implementation of the designed CA-CEM functionalities.

  • Model-Driven Incremental Development of Cloud Services Oriented to the Customer’s Value (Value@Cloud)

Source de subvention : The Spanish Ministry of Economy and competitiveness (MINECO project), with ref. TIN2013-46300-R (RETOS Subprogram) Professeurs impliqués: Javier Gonzalez huerta (LATECE) + 8 autres chercheurs de l’université « Universitat Politècnica de Valencia, Spain » + 2 autres chercheurs de « Universidade Nova de Lisboa, Portugal »

AbstractCloud Computing represents a fundamental shift in how cloud applications should be built, deployed, executed, and controlled. Aiming to be competitive in the current economy, organizations, especially SMEs, should be able to quickly offer new cloud services ensuring a high-level of quality, cost and flexibility meanwhile satisfying the customers changing needs. Current approaches for developing cloud services mainly focus on the functionality to be offered and on the technology to be used rather than on the value to be provided to customers.

The aim of this project is to provide a framework to support model-driven incremental cloud service development oriented to the customer’s value. Specifically, we will investigate how software development teams can identify, create, deploy, and monitor cloud services incrementally by using principles and practices established in model-driven development and business process improvement.

In order to achieve this objective, we set up a multidisciplinary research team composed by professors and researchers from the field of software engineering and business administration. Furthermore, 12 companies from Spain and Europe will participate in this project as “Promoter and Observer Entities – EPO” to provide realistic scenarios where to identify relevant problems and to propose solutions suitable for agile development environments and to allow a smoothly incremental adoption of the technology to be developed in this project.

Finally, the high interest shown by the EPOs in this project and also the high research activity in academia around the project’s topics show that the challenges to be faced in this project and the proposed strategy are novel and try to answer real industrial needs related to the development, innovation and adoption of technologies and solutions based on cloud computing.

  • Knowledge Discovery from Online Social Network

Source de subvention: CRSNG – Subvention à la découverte Professeurs impliqués: Mohammad Bouguessa (LATECE)

AbstractThe increasing amount of communication between individuals in e-formats (e.g. email, instant messaging, blogs, etc.) has motivated computational research in social network analysis. Social network analysis techniques aim to search communities of shared interests or leaders within communities. Social networks are often represented as graphs, where nodes represent individuals and edges represent the relationship between them. Such graphs are massive, in which node may contain a large amount of text data. Many existing social network analysis techniques focus either on the social network topology measured by communication frequencies or the content generated by the users. However, neither information alone is sufficient for finding accurately communities of shared interests and leaders within communities. The information in the text and the linkage structure re-enforce each other, and this leads to higher quality result. In addition to this, existing social network analysis techniques are only effective in analyzing graphs which are from a single source and relatively complete. Furthermore, most existing approaches assume that the structure of the network is static. However, online social networks change continually and links within the network come from different online sources. For example, consider links from Usenet to the blogosphere, links between tweets and news articles, etc. There are also some applications in which the whole network is not available at one time, but available in the form of continuous stream. Such applications create unique challenges, because the entire graph cannot be held in main memory. What is needed to make social network analysis more effective is to develop techniques that take into account textual content, uncertainty, incompleteness, heterogeneity of data sources and the need of developing specialized algorithms for Web applications that involve continuous stream of edges. Our goal is to address these issues by developing appropriate models and algorithms for mining effectively online social networks.

  • Mining Academic Data to Improve University Students’ Services / Forage de données collectées par le SPARI pour améliorer l’offre académique et le suivi des étudiants de l’UQAM

Source de subventin : Projet partimonial du LATECE Professeurs impliqués : Mohamed Bouguessa (LATECE) et Marie-Jean Meurs (LATECE)

Résumé :  A l’heure du Big Data, la valorisation des masses de données collectées par le Service de Planification Académique et de Recherche Institutionnelle (SPARI) et leur exploitation via un processus d’extraction de connaissance efficace est un enjeu majeur et d’actualité. À notre connaissance, ces données sont peu exploitées alors qu’elles contiennent des informations décisives qui contribuent à améliorer l’offre académique et le suivi des étudiants de l’UQAM. Vue la nature complexe des grandes masses de données collectées par le SPARI, leur analyse et leur exploitation nécessitent de relever de nombreux défis. La complexité de ces données est liée à différents facteurs :

  • le volume, qui peut rendre les calculs très lourds en termes de temps et de mémoire nécessaires,
  • l’hétérogénéité et le fait que de nombreuses données proviennent de différentes sources d’information (différents départements et services),
  • la fugacité et la nature dynamique des données (leur contenu évolue dans le temps).

Ces caractéristiques s’avèrent incompatibles avec les paradigmes à partir desquels ont été développées les techniques classiques d’exploitation de données, ce qui confronte les chercheurs à toute la complexité de ce type de données. Dans ce contexte, ce projet vise à élaborer un modèle d’exploitation des quantités massives de données collectées par le SPARI. Le but est l’élaboration d’outils capables de les rassembler, les représenter, les stocker, les indexer, les classifier, en extraire les connaissances pertinentes et enfin de visualiser les résultats de cette extraction. 

  • Energy-Efficient and Sustainable Approaches toward Greening the Next Generation of Wireless Communication Systems

Source de subvention : Natural Sciences and Engineering Research Council of Canada (NSERC) – Discovery Grant Professeurs impliqués : Wessam Ajib

Résumé : Energy consumption of wireless networks is dramatically increasing due to the persistent growth of wireless users, devices, applications and the demand of challenging performance. Hence, the convergence of wireless communication systems and green solutions becomes natural and critical. In addition to the environmental benefits, other motivations for having green solutions include economic benefits to the operators (less energy cost) and practical benefits to the users (longer battery usage). Thus, it is now indispensable to shift from pursuing optimal spectral efficiency to efficient energy usage when creating future wireless networks. Besides, it is accepted that emerging technologies of massive multi-antenna systems, dense heterogeneous networks, cloud radio access networks, M2M (machine to machine) communications and energy harvesting communication systems will be part of future wireless networks (5G networks and beyond). The objective of this research is to optimize the energy efficiency of future wireless systems by proposing innovative green solutions and concepts. This objective will be attained through exploring innovative energy-efficient transmission techniques and advanced original energy-efficient resource allocation schemes for the emerging wireless technologies. Resource allocation will be tackled through theoretical approaches  to formulate, solve and find the optimal solutions and performance bounds. Also, less-complex suboptimal and adaptive solutions using heuristic, centralized or distributed approaches will be proposed. Performance evaluation using analytical tools and simulations will be performed. In addition, innovative energy-efficient transmission techniques will be explored.

  • CRIAQ AVIO-601: Interference Mitigation in Satellite Communications

Source de subvention: Natural Sciences and Engineering Research Council of Canada (NSERC) + three industrial partners Collaborative Research and Development Grants (CRD) Professeurs impliqués: Wessam Ajib (LATECE) + 6 autres professeurs d’universités montréalaises

Résumé: Le projet vise à proposer de nouvelles approches pour détecter, mesurer, caractériser, localiser et éliminer en temps réel les interférences radio fréquences (RFI) présentes dans les systèmes de communication par satellites (SatCom). Agissant comme des stations relais, les satellites sont destinés à des applications scientifiques de surveillance, de télédétection, de télécommunications, de radionavigation, permettant d’offrir de nombreux services, civils ou militaires, à une échelle planétaire tels que la télévision numérique, la communication de données, les systèmes de navigation globale par satellites (GNSS), la surveillance météo, etc. Les SatCom sont de plus en plus expos és aux RFI. La course effrénée aux développements technologiques va contribuer à faciliter l’accès à l’espace, notamment par les pays émergents, augmentant du même coup le nombre de satellites en orbite. Ainsi la ruée vers plus de bande passante dans les transmissions satellitaires va accroître irrémédiablement les phénomènes de RFI. Compte tenu de la variété des sources et la sévérité des impacts des interférences radio fréquences, leur réduction représente un défi pour la communauté des chercheurs, des opérateurs et des fabricants de satellites. Une des visées stratégiques du projet AVIO-601 est de développer de nouvelles solutions de réduction et de suppressiond’interférences plus efficaces utilisant des approches basées sur le traitement des signaux, la radio logicielle cognitive et les antennes reconfigurables. Dans cette optique, l’objectif majeur de l’équipe de recherche (16 étudiants et 3 professionnels de recherche) sera dedévelopper, concevoir et d’intégrer des modules de détection, de localisation, de mesures, de caractérisation et de réduction des interférences afin de limiter leurs impacts négatifs sur les SatCom. De plus, une base de données dynamique des sources d’interférence sera développée et mise à jour en temps réel par les modules d’observation et de caractérisation des RFI. Les modules intégreront de nouveaux concepts de filtrage adaptatif, de cryptographie des signaux puis d’antennes adaptatives dans une architecture plus innovante et plus ouverte permettant notamment une gestion plus efficace du spectre de fréquences.

  • Efficient Algorithms for Resource Allocation and Interference Management in Femtocell Networks

Source de subvention : Fonds de Recherche Québécois: Nature et Technologies (FRQNT) – Projet de recherche en équipe

Professeurs impliqués : Wessam Ajib + 3 autres professeurs de l’UQAM et de Concorida

Résumé: Le concept de femto-cellules offre un service de transmission haut-débit sans fil largement mobile et à coût faible. Le partage des canaux entre les femto-cellules et la macro-cellule rend flexible la bande passante accessible mais crée un besoin de coordination d’accès et de contrôle d’interférence entre les cellules et notamment dans un environnement dense de femto-cellules. Sans des algorithmes d’allocation des ressources judicieusement conçus, les nombreux avantages des femto-cellules seront largement réduits. Dans ce projet, nous développerons une architecture novatrice basée sur la technologie radio cognitive pour s’offrir une allocation dynamique du spectre aux cellules et nous investiguerons les fonctions cognitives de détection, allocation et mobilité spectrale. Aussi, quand les stations de bases femto sont connectées à une unité centrale, nous proposerons une architecture centralisée et des nouveaux mécanismes d’annulation d’interférence. Nous étudierons l’adaptation des techniques de transmission à antennes multiples et de transmission coopérative sur des femto-cellules voisines. Finalement, le projet proposera des solutions novatrices et efficaces à des problèmes essentielles dans des domaines en émergence. Donc, les retombées attendues aux niveaux industriel et scientifique seront conséquentes.

  • CRIAQ AVIO-505: Software Radios for Highly Integrated System Architecture

Source de subvention : Natural Sciences and Engineering Research Council of Canada (NSERC) + three industrial partners Collaborative Research and Development Grants (CRD) Professeurs impliqués: Wessam Ajib (LATECE) + deux autres professeurs des universités montréalaises

Résumé : This project aims to establish new design methods and digital signal processing techniques for robust and efficient universal navigation and communication equipment in the fields of aeronautics and aerospace. New avionic standards are under study and strong arguments exist for the adoption of software defined radios (SDR) at this point in time. The project anticipates the integration of multiple navigation and communication systems in a single hardware element. Such integration minimizes system footprint and avionic weight, reduces part count, and will incorporate more efficient new airspace management system (ADS-B), thereby reducing greenhouse gas emissions in the framework of international environmental initiatives. The aeronautic and aerospace industries have interest in a single generic reprogrammable and universal communication system used to replace multiple and burdensome radios/antennas presently used in aircrafts. The proposed system will allow for multiple radios that are simultaneously accommodated and have numerous functionalities, and will be implemented on a flexible integration platform suitable to future applications. The project will consist of integrating DME, Mode S transponder and wideband digital radio, built with novel software defined architecture proximal to the antenna. The architecture enables the capability to redeploy functionality based on phase of flight and minimizes connectors, antennas, cable length, electromagnetic interference (EMI) and system footprint. The goal is to digitize the radiofrequency (RF) signal in proximity to the antenna and to transmit the baseband signal to a generic radio for further digital signal processing. The proof-of-concept demonstrator will be evaluated in-laboratory and in-flight using simulation equipment and a flight test platform under real operating conditions in order to characterize protocols and system performance. The project will contribute to international initiatives for the definition of new standards and contribute to Canadian efforts to reduce greenhouse gas emissions, and create new employment opportunities for the team of highly qualified personnel. The developed technologies will also be applicable to ground or airborne infrastructure.

  • Efficient Resource Allocation Schemes for Cognitive Radio Networks: Agile Spectrum Sharing and Enabling Technologies

Source de subvention : Natural Sciences and Engineering Research Council of Canada (NSERC) – Discovery Grant Professeurs impliqués: Wessam Ajib

Résumé : The radio spectrum is a scarce natural resource; and its majority is allocated to well-identified licensed users. In general, licensed users are unwilling to share their spectrum with other unknown users and a large part of the licensed spectrum is not fully utilised. Cognitive Radio (CR) technology presents a practical approach to spectrum scarcity and to its underutilisation. This is achieved by implementing the concept of dynamic spectrum access such that unlicensed CR users can dynamically access the licensed spectrum, without causing harmful interference to licensed users. This research focuses on developing original and innovative efficient resource allocation schemes for the integration of CR technology in emerging wireless networking techniques. First, we investigate CR nodes operating with cooperative communication – that builds a virtual multi-antenna system by making use of the antennas available in the neighbour nodes. Second, we study the integration of dynamic spectrum access into femtocell cellular systems. Femtocell benefits can be significantly curtailed without efficient resource allocation, spectrum access and interference control schemes.

  • Content Placement Algorithms for Cloud-Based Content Delivery Networks

Source de subvention : Natural Sciences and Engineering Research Council of Canada (NSERC) – Engage Grant Professeurs impliqués: Wessam Ajib

Résumé : The advent of elastic resource provisioning in cloud-based networks is largely accepted to be a cost effective solution for content delivery network providers. Using the new paradigm of content delivery network, providers can now lease resources (such as storage, computing and/or bandwidth) in the cloud to build Cloud-based content delivery networks. Our industrial partner (Ericsson Canada Inc.) is contemplating extending its products and services over its cloud to include Ericsson Cloud-based content delivery networks. An intrinsic problem in this kind of networks is the content placement problem. In this project, our team will design an efficient push-based content placement model for Cloud-based content delivery networks. The design goals of the algorithm are (a) minimizing the cost of leasing storage and bandwidth resources for data coming into and going out of the cloud zones and regions, (b) guaranteeing to the consumers a quality of service defined by a Service Level Agreement, and (c) minimizing the degree of quality of service violations. The proposed algorithm will incorporate sensitivity to network performance and social interaction metrics.

  • Analysis and evaluation of efficient wireless communication techniques for cognitive radio networks

Source de subvention : Fonds de Recherche Québécois: Nature et Technologies (FRQNT) – Projet de recherche en équipe Professeurs impliqués: Wessam Ajib + 3 autres professeurs de l’école polytechnique de Montréal

Résumé : L’objectif de ce projet est d’assurer des communications fiables à hauts débits dans ces canaux de transmission sans fil terrestres non fiables dans un réseau radio-cognitif. La pénurie de spectre sans licence et la sous occupation de spectre avec licence ont conduit au développement du concept de radio-cognitif (CR). Un noeud CR permet d’améliorer l’exploitation du spectre en utilisant – sans être doté d’une licence – une partie du spectre avec licence de façon opportuniste, mais sans causer d’interférence nuisible à la communication des usagers dotés d’une licence. La conception d’un réseau incluant des noeuds CR devient une avenue de recherche particulièrement attrayante. Dans un tel réseau,  la combinaison de la technique CR avec les technologies de transmission émergentes des communications sans fil (e.g. MIMO et communication coopérative) sera analysée, évaluée et optimisée. Les systèmes MIMO sont une technologie de choix pour fournir des communications fiables sans fil à haut débit, et la communication coopérative avec CR permet de créer un système MIMO virtuel à partir de noeuds relais. Dans ce projet, nous évaluerons les performances de systèmes CR et MIMO et de la communication coopérative.

  • Médias socionumériques et Big Data : nouvelles modalités de surveillance et de gouvernance ?

Source de financement: CRSH – Savoir Professeurs impliqués: Maude Bonenfant (LATECE) + d’autres professeurs

  • Laboratoire de recherche en médias socionumériques et ludification

Source de financement : FCI – Fonds des leaders Professeurs implqiués : Maude Bonenfant (LATECE) + d’autres pro

  • Caractérisation des communautés de joueurs pour le jeu vidéo For Honor

Source de financement : MITACS – Acceleration Professeurs impliqués: Maude Bonenfant (LATECE)

  • Rôle des rapports sociaux dans le processus de ludification en ligne

Source de financement: FRQSC Établissement de nouveaux professeurs-chercheurs Professeurs impliqués: Maude Bonenfant (LATECE)

  • Être(s) en ligne : usage des avatars et construction de l’identité dans le cyberespace

Source de financement : CRSH – Savoir Professeurs impliqués : Maude Bonenfant (LATECE)

  • Maintaining architectural conformance through the mapping of architectural decisions to implementation practices and patterns

Source de financement: CRSNG – Subvention à la découverte Professeurs impliqués: Ghizlane El Boussaidi (LATECE)

  • Specification and Verification of Design Models for Certifiable Avionics Software

Source de financement : Natural Sciences and Engineering Research Council of Canada (NSERC) and CRIAQ- Collaborative Research and Development Professeurs impliqués: Ghizlane El Boussaidi (LATECE) + d’autres

  • Test Automation with TTCN-3 Liam Peyton

Source de financement : MITACS et CRIAQ Professeurs impliqués: Ghizlane El Boussaidi (LATECE)

  • Patterns in multi-language systems

Source de financement : CRSNG – Chaire de recheche du Canada Tier II

Professeurs impliqués : Yann-Gaël Guéhéneuc (LATECE)
  • Building Practical Software Quality Models

Source de financement : CRSNG – Subvention à la découvrte Professeurs impliqués : Yann-Gaël Guéhéneuc (LATECE)

  • A recommendation system for managing the configuration of multi-tier systems

Source de financement : FQRNT – projet en équipe Professeurs impliqués : Yann-Gaël Guéhéneuc (LATECE) + d’autres

  • Social Network Analysis and Mining

Source de financement : CRSNG – subvention à la découverte

Professeurs impliqués: Rokia Missaoui

Abstract : The goal of the NSERC research program is to propose methods, techniques and tools to analyze and mine heterogeneous information networks, i.e., the ones which have more than one type of nodes and/or links and could represent multi-modal data. More specifically, the objectives are twofold: (1) handle some key issues in heterogeneous information networks such as link prediction and community detection, and (2) study the problem of mining triadic and more generally n-ary association rules in order to further apply the findings to heterogeneous information network analysis and hypercube mining.

The novelty of this research program comes from (i) the development of a framework for analyzing social networks with a complex structure by adapting a few advanced data mining techniques, including formal concept analysis, (ii) the proposal of new solutions to the issues of link prediction and community detection by taking into account not uniquely node/edge centrality but also other features like relationships between interrelated networks, and (iii) the contribution to the theory of formal concept analysis by proposing new procedures for computing triadic and  n-ary concepts, generators and association rules directly from multi-dimensional data.

  • Vers l’auto-documentation «parfaite» de systèmes logiciels 

Source de financement : Latece Projet patrimonial Professeurs impliqués : Guy Tremblay (Latece), Jean Privat (Latece)

  • Protocoles de comportement pour composants et services

Source de financement : CRSNG – Subvention à la découverte Professeurs impliqués : Guy Tremblay (Latece)

Résumé :

Les services Web émergent de plus en plus comme une infrastructure fondamentale pour le développement et la mise en oeuvre du commerce électronique et, plus généralement, des processus d’affaires électroniques.  De nombreux langages et standards existent pour décrire et spécifier de tels services et processus, et ce à plusieurs niveaux, par exemple, orchestration décrivant le fonctionnement interne d’un processus, interface comportementale d’un processus, chorégraphie régissant la coopération entre divers processus et services. Bien qu’on reconnaisse que les méthodes formelles de spécification et de vérification peuvent jouer un rôle important dans le développement de logiciels de qualité, ces méthodes sont encore peu utilisées dans le cadre des processus d’affaires et services Web. L’objectif de notre recherche est de concevoir et développer des outils de support aux méthodes formelles qui permettront de développer des processus d’affaires basés sur les services Web qui soient corrects et fiables.  Plus spécifiquement, notre recherche vise tout d’abord à définir un langage de spécification d’assertions et de contrats pour les opérations de services Web ainsi qu’un engin d’exécution de processus d’affaires permettant la vérification dynamique de ces contrats. Notre recherche vise ensuite à développer des outils d’analyse de processus d’affaires qui permettent d’effectuer diverses vérifications formelles, par exemple, vérifier que l’interface comportementale d’un processus possède certaines propriétés, vérifier qu’un groupe de services sont compatibles entre eux et peuvent effectivement collaborer tel que requis par une orchestration de référence.

-       100 000 $ CRSNG 2017-2022

-       10 000 $CAD (Centre de recherche de l’UQAC et CHUL). 

B. Nit Nit est un langage de programmation ainsi qu’un cadre pour la recherche et l’enseignement. Le langage de programmation Nit cherche à réconcilier l’expressivité et la simplicité des langages de script avec la sûreté et le passage à l’échelle des langages statiquement typés. En tant que cadre pour la recherche et l’enseignement, Nit est un outil pour l’étude la spécification et l’implémentation des langages à objets statiquement typés. http://nitlanguage.org C. SableCC SableCC est un générateur de parseurs qui génère un framework objet complet pour le développement de compilateurs, interpréteur et autres outils. En particulier, le code généré inclut les classes d’un arbre syntaxique abstrait et de divers visiteurs. SableCC maintient aussi une séparation propre entre le code généré et celui de l’utilisateur ce qui améliore le développement. http://sablecc.org