昨夕、水餃子を湯がくのに、ふと思いついて「OK google! 4分測って!」とお願いしたら、ちゃんとスマホのタイマーが起動して4分が計測された。調理中のような、両手が塞がっている場面では、音声でコントロールできるのは、ものすごくありがたい。長時間露光の撮影でも、使えるんじゃないかと思う。

先日、1年ぶりに訪れた漢方医で。
それまでは、話を聞きながら先生が問診内容をタイピングしていたのが、その日は、先生がこちらを向いて話を聞いているだけで、わたしの回答が画面の電子レシピにリアルタイムで書き加えられていくのに驚いた。よく見ると、奥に助手が座ってタイピングをしていたのだけれど。

先生がきちんと自分のほうに身体を向けているだけでも、ずいぶん印象が違う。それまでは、発話のタイミングを先生のタイピングのペースにあわせていたのが、普通に会話ができるようにもなった。
問診がスムーズになった分、診察時間は短縮されたが、「ながら聞き」ではなくなったので、コミュニケーションの質は高くなったと感じられた。(生産性の向上やなぁ)

医師は、医師にしかできないことをするべきで、タイピングをする必要はないという当たり前のことに気づかされたのと同時に、いずれこの部分は音声入力に取ってかわられるだろう、と思った。
最近の音声認識は、思っているよりずっと精度が高く、わたし自身、スマホの入力はほとんど音声に頼っている。

さて、こんなことを書いたのは、WEBが今後どうなっていくのかを考える機会があったから。
音声認識とアシスタントの能力がどんどん高くなれば、視覚ベースが音声ベースのコミュニケーションにとってかわられる場面も増えていくだろう。WEBはアシスタントにリーダブルな構造に変化していくだろうと予想している。

そういうことを考えていたせいか、膨大な撮影データから「あなたにオススメの被写体」をカメラにおすすめされたり、過去に設定された露出の解析をもとに、被写体に応じて「わたし好み」の画が得られる設定をカメラが自動的にほどこす時代がくるのではないか、というようなことを妄想した。

たぶん、技術的には可能だろうけど、そこまでいくと、撮影者の主体性が脅かされ、撮影する楽しみが奪われるから、あえて踏みとどまる(踏みとどまっている)のではないだろうか。
「オススメ」を裏切りたくなる天邪鬼な心根が、撮影者をよりクリエイティブに駆り立てる、ということになるのかもしれないが。