かなり前ですが,プレスリリースしました.

今更ですが,名古屋大学,徳島大学,アイシン精機で協力して構築した声やジェスチャで操作できる自動運転車両を公開しました(去年の10月?).

「自動で走るのはいいけど,どうやって目的地指示するの?」という部分をまずは音声で,ということで構築した車両ですが,雑音の多い車両内でも安定した認識を行うためにマルチモーダル対話システムを構築しました.

当日はかなりの数の取材でしたが,特異な環境でもしっかり音声認識できました.

 

Takuma Nakagawa, Ryota Nishimura, Yurie Iribe, Yoshio Ishiguro, Shin Osuga, Norihide Kitaoka, “A human machine interface framework for autonomous vehicle control,” Proc. GCCE 2017, pp. 411-413, Oct., 2017.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s