1. Application mobile de capture des besoins informatiques d'utilisateurs non-informaticiens
Encadrants : Pierre Crescenzo (pierre.crescenzo@unice.fr) et Isabelle Mirbel (isabelle.mirbel@unice.fr)
Contexte : L'Ingénierie des Besoins est enseignée en Master MIAGE 1 de l'UNS au semestre 2. Un de ses sous-domaines consiste à recueillir (on dit aussi capturer) les besoins des utilisateurs des actuelles ou futures applications informatiques (pour faire évoluer ou développer celles-ci). Pour cela, des modèles, à base de graphiques ou de scénarios, et des logiciels (1) ont été élaborés.
Travail attendu : Ce projet consiste à concevoir et développer une application mobile (pour tablettes voire smartphones, sous Android) qui permette à un spécialiste de recueillir les besoins sans être bloqué derrière un clavier d'ordinateur. Avec sa tablette ou son smartphone, il pourra interroger les utilisateurs : enregistrement audio ou vidéo, prise de notes libres, commencer à compléter des scénarios, à faire des diagrammes, etc. Le projet comportera obligatoirement une analyse de l'existant pour détecter les concurrents puis s'en inspirer. Le choix des langages, application internes (par exemple, on ne va évidemment pas redévelopper un enregistreur de son : on devra en choisir un existant et l'intégrer) et technologies Android sera réalisé sur propositions des étudiants et validations des encadrants. Des tablettes (Samsung Galaxy Tab 4 10,1" 32 Go) seront fournies aux étudiants pour ce projet.
Pré-requis : Pas de prérequis technique mais un groupe travailleur, motivé et prêt à apprendre pour progresser est attendu.
Réferences : http://miageprojet2.unice.fr/Intranet_de_Michel_Buffa/Projet_ann%c3%a9e_Miage_2014-2015#Conception_et_d.c3.a9veloppement_d%27une_application_mobile_de_capture_et_adaptation_de_mod.c3.a8les_de_besoins
(1) http://istar.rwth-aachen.de/tiki-ind...?page=i*+Tools ou http://www.troposproject.org/node/98
2. Collecte d'information via montres connectées et smartphone pour nourrir un réseau social géolocalisé / temporalisé
Encadrants : Michel Buffa (buffa@unice.fr) et Amel Ben Othmane
Contexte : Les activités que nous pratiquons tous les jours ne sont pas réparties aléatoirement dans le temps et dans l’espace mais révèlent des patterns spatio-temporels. Les lieux où vous aviez passé du temps (un site physique ou une page web) régulièrement ou occasionnellement signalent votre style de vie qui est généralement fortement associé à vos caractéristiques socio-économiques, tels que l'âge, le sexe, la profession, et ainsi de suite, pour peu que vous ayez accepté d’être géolocalisé (ce qui est souvent le cas lors de l’installation initiale des logiciels d’un SmartPhone). En d'autres termes, les empreintes spatio-temporelles révèlent une quantité importante d'informations sur les personnes qui les créent. Les réseaux sociaux en ligne et les services de partages d’informations ont générés des volumes importants d’empreintes spatio-temporelles. Ces dernières peuvent être exploitée pour de la publicité ciblée mais aussi, et c’est ce qui nous intéresse ici, pour recommander des activités dans le but d’atteindre un objectif précis.
Par exemple l’activité physique dans un parcours de traitement d’un diabétique peut servir à faire baisser la pression artérielle et aide à l’amélioration de l'insulino-sensibilité (et donc produit un effet sur l'équilibre glycémique), etc…Pour atteindre ses objectifs, et en fonction des plusieurs autres paramètres (âge, type de diabète, complication, etc..) le système pourra recommander certains exercices (type, fréquence et intensité). On peut imaginer d’autres scénarios avec des personnes âgées ayant besoin d’une rééducation après une fracture du fémur, avec des sportifs de haut niveau désirant optimiser leurs performances en ayant une préparation physique adaptée, etc.
Objectif : Il s’agit donc de réaliser une plateforme de collecte des données issues de capteurs (parcours géographique, vitesse, distance parcourue, fréquence cardiaque, température du corps, taux de glycémie, etc..) permettant de faire le suivi de l’activité spatio-temporelle et physiologique de la personne. Ces données seront stockées par la suite dans une base de données qui permettra de raisonner sur ces données pour pouvoir effectuer des recommandations.
La partie collecte des données et visualisation utilisera le framework et les APIs de la plateforme open source SmartCampus (développée par l’équipe de recherche MODALIS localisée à l’EPU templiers).
Le projet devra participer à la création d’un modèle pour ces données et à leur stockage dans une base de données. Une autre tâche consistera à exploiter ces données pour effectuer des raisonnements dessus et donner des recommandations sur les activités à effectuer par la personne. Dans le cas d’un diabétique, d’un insuffisant cardiaque, d’un sportif de haut niveau, on pourra recommander certains parcours, certains objectifs, certains temps à atteindre lors d’un exercice physique, pour atteindre le but « améliorer santé », « améliorer ses performances », etc.
References : http://miageprojet2.unice.fr/Intranet_de_Michel_Buffa/Projet_ann%c3%a9e_Miage_2014-2015#Collecte_d%27information_via_montres_connect.c3.a9es_et_smartphone_pour_nourrir_un_r.c3.a9seau_social_g.c3.a9olocalis.c3.a9_.2f_temporalis.c3.a9
3. Développement d'une plateforme web pour apprendre à jouer des morceaux rock/pop (Garageband simplifié dans une page web!)
Encadrant : Michel Buffa (buffa@unice.fr)
Contexte : Un de vos enseignants a développé une application musicale originale : un lecteur multipistes HTML5 basée sur l'API Web Audio intitulé BHUMP (http://mt5demo.gexsoft.com). Cette application permet de jouer des morceaux rock en mode multipistes, et ainsi isoler les différents instruments. Ce "super lecteur audio" permet de faire des boucles, d'isoler une partie du morceau, etc. Il est déjà utilisé dans des écoles de musique régionales. Voir photo d'écrans. Il est possible par ailleurs de visualiser des partitions de musique multipistes au format guitar Pro directement dans un Canvas HTML5 à l'aide de la librairie JavaScript Alphatab.net. On suhaite synchroniser la lecture audio avec l'affichage des partitions. Idem si on dispose de vidéos pédagogiques. On souhaite syncrhoniser vidéo/partitions et sections dans la musique audio multipiste. Par ailleurs un TER de master info l'an dernier a développé plusieurs instruments de musiques virtuels : une boîte à rythme et un synthétiseurs. Toujours avec l'API Web Audio. Il serait intéressant de pouvoir piloter ces instruments via une interface midi. Ca tombe bien, l'api Web MIDI vient juste d'être implémentée par des navigateurs récents. Vous pouvez tester sur http://www.rivieraproject.fr/ Ces applications fonctionnent également sur tablette et mobiles android ou IOS, c'est tout l'intérêt de HTML5.
Objectif : Il s'agit de complétet le logiciel audio multipiste avec un module de stynchronisation avec partitions et vidéo, et de modifier la GUI en conséquence. Il s'agit de pouvoir ajouter au logiciel multipiste des pistes d'instruments virtuels, pour que ce soit directement l'ordinateur qui gènère les sons lorsqu'on joue de son instrument. Exemples de scénario: Je charge Honky Tonk Woman des Rolling Stones, je branche une interface audio/midi sur mon PC/Mac/Ipad/Iphone/Tablette ou Smartphone Android et je branche soit un clavier maitre (clavier de type piano, mais sans sons), soit une guitare, soit un micro dans une entrée de l'interface. La webapp détecte les évènements midi et joue les sons des instruments virtuels, ou bien détecte les sons de la guitare et traite le signal audio en temps réel pour ajouter des effets.
References : http://miageprojet2.unice.fr/Intranet_de_Michel_Buffa/Projet_ann%c3%a9e_Miage_2014-2015#D.c3.a9veloppement_d%27une_plateforme_web_pour_apprendre_.c3.a0_jouer_des_morceaux_rock_.2f_pop