Les promesses des interfaces vocales sont immenses. Pour autant, tout n’est pas encore parfait. En toute honnêteté, la fluidité des dialogues n’atteint pas encore un niveau de qualité suffisante. Les actions Google et les skills Alexa sont souvent conçues autour d’un scénario préconçu par son créateur et sont très loin d’un véritable dialogue entre un humain et une machine.

Créer une interaction vocale s’avère beaucoup plus compliqué qu’il n’y paraît à première vue. On ne sait jamais à quoi s’attendre, il n’y a pas de règle, aucun repère et une application vocale ne peut se limiter un ou deux scénarii.

« Nous ne sommes pas nos utilisateurs », c’est le principe de base que devrait appliquer tout designer d’application. Nous n’avons pas tous le talent de Steve Jobs non plus. Il est impensable de designer un produit en se basant juste sur sa propre intuition.


Il est indispensable d’éprouver son application auprès de vrais utilisateurs en conditions réelles afin de comprendre exactement la manière dont ils se servent de l’application. Idéalement il faut intégrer ces tests au plus tôt dès la phase de conception pour éliminer les cas d’erreurs et identifier les scénarii non prévus nécessitant des développements importants.

Lorsque nous avons développé une application de réservation de place de cinéma pour une célèbre enseigne (UGC pour ne pas la citer), nous avions bien sûr effectué quelques tests mais nous étions loin d’imaginer la créativité des utilisateurs. Difficile d’anticiper que l’on veut voir un film « après l’apéro », « sur les champs » « à côté de chez moi » « la semaine prochaine à la même heure ». La mise en place d’une vraie session de tests dès la phase de conception nous aurait épargné des allers et retours avec les équipes de développements pour modifier le schéma conversationnel de l’application.