かなり前ですが,プレスリリースしました.

今更ですが,名古屋大学,徳島大学,アイシン精機で協力して構築した声やジェスチャで操作できる自動運転車両を公開しました(去年の10月?). 「自動で走るのはいいけど,どうやって目的地指示するの?」という部分をまずは音声で,ということで構築した車両ですが,雑音の多い車両内でも安定した認識を行うためにマルチモーダル対話システムを構築しました. 当日はかなりの数の取材でしたが,特異な環境でもしっかり音声認識できました.   Takuma Nakagawa, Ryota Nishimura, Yurie Iribe, Yoshio Ishiguro, Shin Osuga, Norihide Kitaoka, “A human machine interface framework for autonomous vehicle control,” Proc. GCCE 2017, pp. 411-413, Oct., 2017.