山田祥平のRe:config.sys

コンピュータとの対話の主客転倒

 コンピュータとのインタラクションは、今や、AIとの対話を指すと言ってもいい。不思議なことに、かつてと現代のAI時代においては、コンピュータと人間が対峙したとき、どちらが何を求めるかが入れ替わってしまったように感じることがある。

プロンプトって何だ

 その昔、コンピュータとの対話の多くをコマンドラインインターフェイスに頼ってきた。MS-DOSでも、そしてUNIXでもコマンドラインを入力するためのインタープリターとしてシェルが用意され、そのシェルはエンドユーザーに対してコマンドを要求する。一字一句間違うことなく呪文を唱えろというわけだ。

 たとえば、MS-DOSのシェルcommand.comは「C:¥>Users¥syohei>」 などとカレントディレクトリを示し、コマンドラインを入力するように人間に要求した。これをプロンプトと呼んだのだ。

 そこに「dir」「del」「copy」といった命令、すなわちコマンドを入力し、必要に応じて引数となるファイル名やオプションスイッチを入れ、それが違っていなければ、その文字列はコマンドとして実行に移された。今もWindowsにはcmd.exeをシェルとしたコマンドラインインターフェイスが残っているが、そこにはしっかりと「コマンドプロンプト」とある。

 ところが、AIの時代となり、コンピュータに対する人間の依頼のことをプロンプトと呼ぶようになってしまっている。これにはかなりの違和感を感じる。サービスに対して対価を支払う側がその行為を「課金する」と呼ぶようになっていることに感じる以上の違和感だ。

 プロンプトはコンピュータが人間に対して命令するようにうながすためのものであり、コンピュータ側の準備ができて次のコマンドの入力待ち状態であることを表していた。だが、AIのプロンプトは人間側の指示を意味する。その指示は「依頼」や「願い」に近いものかもしれないし、広義のコマンドでもある。なのにコマンドがプロンプトと呼ばれるようになっている。

 そんなことどうでもいいじゃないかと思うかもしれないが、これはコンピュータと人間の関係に起こった変化としては、かなり大きなものなんじゃないかと思う。

 まるで、コンピュータと人間が主客転倒したような、というのは大げさかもしれないが、コンピュータと人間の関係に、多少なりとも変化が起こった結果なのかもしれないとも思う。

 つまり、かつてのプロンプトはコンピュータが人間にコマンド入力を要求するものだったが、今のプロンプトは人間がコンピュータに処理を要求している。そこにある微妙な主客転倒は、これからの機械との対話にどのような結果をもたらすのだろうか。

AIを超えていけ

 AIを使うことが当たり前になった以上、ぼくらはAIを超えていかなければならない。AIにできることはAIに任せるという割り切り方を身につけ、AIの仕事結果では満足できないことが多いと想定される作業に時間を費やし集中する。少なくとも現時点ではそれがAIを超えるということにつながるはずだ。

 ちなみにぼく自身の職業はライターだ。つまり文章を書くことが仕事だ。だが、AIを使うにあたって、ライターが書くことをAIに委ねていいのだろうかと常に自分に問う。

 結果として、文章を成果物とする仕事にAIの出力を使うことはない。同業者には見出しを付けるような仕事はAIで十分だという判断をする方もいるようだが、個人的にはまだそこまで踏み切れないでいる。

 その一方で、請求書発行や、煩雑な多くの事務作業についてはAIに頼りたいとは思う。だが、これらについてはラクでよかったと思うほど量が多いわけではないので恩恵は少ないとも言える。もしかしたら、そのうち発注側のさらなるDXで請求書廃止を申し出てくれるんじゃないかと高をくくっている。

 今、AIがやってくれればいいなと思うのは、毎日届くメールの中から記者会見や発表会などの案内を抽出し、それをすべて仮の予定表に入力する仕事だ。今は、メールを自分の目で確認して取捨選択して予定表に登録している。それなりに時間と手間がかかる。

 たとえば、1週間の地方や海外出張が予定にある場合、その間の東京でのイベントには出席することはできない。だが、突然その出張が何らかの理由でキャンセルになったとする。それなら欠席するつもりだったイベントに出席しようと思う。だが、大量の過去メールから、その期間の発表会の案内メールをもう一度見つけ出すのは結構大変だ。

 そのあたりのことを確実に任せることができる執事みたいなAIがいればどんなにラクができるだろうかとは思う。でも、それで節約できる時間はやっぱりタカがしれていたりもするわけだ。

ウェアラブルデバイスとプロンプト

 今週は、千葉・幕張で開催されているデジタルイノベーションの総合展CEATECを見てきた。視察と言っても、広い会場を2時間ほどかけて回っただけなので、きっと興味深い展示を見落としているに違いない。それでもいい。活気のある会場をウロウロするだけで刺激が得られるし、人間が活動している様子は元気の素にもなる。

 予想通り、出展の多くはAIがらみだった。目についたブースの1つが株式会社JVCケンウッドだった。

 同社が参考展示していた「ヒトとAIをつなぐウェアラブルAIサポートツール」として展示されていた試作機はカメラを内蔵したTWS(完全ワイヤレス)イヤフォンだった。カメラが撮影した内容について、スマホを取り出すことなく、フリーハンドでAIと会話しながら、あれこれとまさに今目の前に見えている事象の検討ができるというものだ。VR眼鏡をかけたりしない。あくまでも自分のまなざしをAIが把握する。

 同社によれば、異なる種類の情報をまとめて扱うAIとしてのマルチモーダルAIとの親和性を高めることで、日常のさまざまなシーンをAIがサポートする未来の生活スタイルを提案するものとのことだ。

 カメラは特定のウェイクワードを発声したときだけオンになるため、バッテリへのインパクトはそれほどでもないそうだ。たとえば「ねえ見て」がウェイクワードだとすれば、そのときにカメラがオンになるといった具合だ。

 初期設定時に自分の視線とカメラの向く方向をキャリブレーションしておき、自分が見ている光景が、正確にAIに伝わるようにしておく。ちなみに、想定としては片耳利用だが、両耳に装着する使い方も検討中だそうだ。両耳にカメラがあれば、見えているものに対する距離が正確に測定できるため、それがまた新しい使い方につながっていく可能性があるという説明だった。

 ウェアラブルデバイスは四六時中身に付けておくことで、身体の変化をセンサーで検知したり、五感を拡張したりするのに役に立つが、冒頭に書いたようなプロンプトの役割も果たすようになるのかなと想像したりもした。

 今日の道中は、たまたまの事故で新宿で乗った中央線の快速が動かなくなって四ツ谷で下車、経路を検索しまくりのバタバタしていた往路だったが、コンピュータ的なデバイスとの対話を考え直すのに貴重な時間にもなった。新宿から西船橋経由で海浜幕張なんてルートは思いつきもしなかった……。