Mégaphone


Résumé : Le projet Mégaphone était une installation, au Quartier des spectacles Montréal (QDS), qui permettait aux citoyens de prendre la parole publiquement sur le sujet de leur choix. Les participants voyaient leurs mots transformés en oeuvre visuelle géante projetée sur le bâtiment de l'UQAM grâce aux technologies visuelles de Moment Factory et de reconnaissance de la parole du CRIM. Le CRIM a participé à titre de consultant pour les technologies vocales dans les phases initiales du projet, a fourni ses technologies de reconnaissance en direct et en différé, et a participé à l'intégration de ses technologies au système installé au QDS.

Résultat : La version finale de l'installation comportait un système en temps réel, qui projetait les mots au fur et à mesure sur un conteneur situé derrière les orateurs, et un système en différé, dont les résultats plus précis apparaissaient après vingt secondes sur le bâtiment de l'UQAM et s'accumulaient comme une mémoire à long terme des discours prononcés. L'anglais et le français pouvaient être reconnus. Des centaines de participants ont utilisé l'installation du 4 septembre au 4 novembre 2013.

Partenaires : Moment Factory, l'Office national du film du Canada (ONF), Quartier des spectacles Montréal.

Vidéo de l'ONF - Quelques moments captés sur le vif à Mégaphone

Équipes

Nouvelles récentes

  • Meilleurs vœux des fêtes!
    14/12/2018

    Joyeuses fêtes de toute l'équipe du CRIM!

    +

Événement à venir

  • HASE 2019
    3/01/19 2019h00
    Hangzhou, China
    Le CRIM présentera deux articles à la 19e édition du IEEE International Symposium on High Assurance Systems Engineering, qui se déroulera du 3 au 5 janvier 2019 à Hangzhou, Chine
    +
  • CANARIE RT @CANARIE_Inc: VESTA recueille les données des systèmes d'apprentissage en ligne quand les élèves lisent l'écran, sont distraits ou pense…
  • #startech_capsules | Entrevue @technopolys_qc avec @casaconnected, qui s'est donné la mission de révolutionner la f… https://t.co/QsF70CDKIg

Publications récentes

  • Towards Automatic Feature Extraction for Activity Recognition from Wearable Sensors: A Deep Learning Approach

    +
  • Checking Sequence Generation for Symbolic Input/Output FSMs by Constraint Solving

    +