音声プログラミング
プログラミング言語とその開発環境はキーボードと画面を前提に設計されています。この前提は当然のことのように思えますが、キーボードや画面を使えない、使いたくない状況もあります。例えば掃除ロボットを前にして、ちょっとややこしい掃除の手順を教え込みたいことがあるかも知れません。車を運転しながら、自転車に乗りながらちょっとしたプログラムを書きたくなることもあるでしょう(特にハッカーであるみなさんは)。この数十年で音声認識と音声合成の技術は驚異的な進歩をとげ、音声インタフェースはもう実用の域に達しています。その可能性はすでにAmazon AlexaやApple Siriのようなサービスを使ったことがあれば説明するまでもないでしょう。
しかし音声プログラミングは、音声インタフェースと異なり、分からないことだらけです。従来のプログラミング言語の文法は音声に適しているのでしょうか? 読み上げるのは簡単でしょうか? プログラムを眼で見ずに聴くだけで分かるのでしょうか? (“x0 * c_minus1″を読み上げたら、どう音声認識されるのでしょうか? また人間にはどう聞こえるのでしょう?) 従来のプログラムエディタを音声で操作するのでしょうか? どうやって音声でカーソルを動かし文字をコピーしたりするのでしょうか? もしかしたら、音声プログラミングのためには全く新しい文法と編集方法が必要なのではないでしょうか?
このプロジェクトでは音声による、特に音声だけによるプログラミングに適した言語と開発環境を追求します。最初にロボットプログラミングのための小さな言語と環境を作り、どのような点が重要であるかを評価実験をしながら見つけてゆき、次なる拡張を行ってゆく、という流れで研究を進めてゆきます。