
Chat UIとインターフェースの未来
MNTSQのプロダクトデザイナーkassyです。
ChatGPTが大きな話題となって以降、プロダクトへのChat UIの導入が進んでいますが、この動きは今後どのようになっていくのでしょうか?
今回はChat UIとインターフェースの未来について考察していきたいと思います。
人間は怠惰な生き物である
その未来予測の切り口として参考になるのが「怠惰の法則」です。これはnote CXOの深津さんが提唱している説であり、これを利用することである程度未来をリアリティをもって考えることが出来ます。
怠惰の法則とエスタブリッシュの民主化、このふたつは自分がサービス設計をするときの考え方なんです。怠惰の法則というのは自分が勝手に名付けたもので、「人間は何か選択肢があるとき、最も怠惰な行動をしても許されるものに集まる傾向がある」という法則です。ふたつのテクノロジーがぶつかったとき、いわゆる「ダメな人」に優しいテクノロジーが基本的には勝つということです。
わかりやすい例だと、「竹をこすって火をおこす」対「ライター」だったらライターが勝つし、「ライター」対「コンロ」だったらコンロが勝つ。「コンロ」対「電子レンジ」だったら電子レンジが勝つということです。「準備が面倒でなく、実行するのが面倒でなく、意思決定が面倒でないもの」。ダメな人に優しいテクノロジーが最終的に残るんです。
逆にどんなに素晴らしい成果が出るテクノロジーでも、専門的なコンソールや複雑な意思決定を経ないと使いこなせないものは、一部のプロフェッショナル用途以外では普及をしないというのが自分の原則論ですね。
『生成AIが流行るのは“耐雑性”があるから。深津貴之氏に訊いた普及するテクノロジーに共通する3つの法則』
https://repro.io/contents/interview-fukatsu-20230412-1/
Chat UIは本当に便利なのか?
それを踏まえてChatGPTの基本フォーマットであるChat UIを見てみると、その回答精度には感嘆しつつも、インターフェースとしては課題も多いなと感じます。
文章をいちいち打ち込む面倒さ
生成された文章を読む面倒さ
自分が納得できる回答にたどり着くまでやりとりする面倒さ…etc.
例えばLINEでのやりとりはメールでのコミュニケーションがデフォルトだった時代には画期的でしたが、次第にチャットでのやりとり自体も面倒になり「LINEスタンプ」というスタンプを押せば文字をいちいち入力しないで済むというソリューションが生まれました(まさに怠惰な方への進化)。
今のChat UIはいわばスタンプのない文字中心の世界です。これはLINEなどになれた自分にとってはちょっと面倒さを感じます。
怠惰の法則に従うなら、より簡単な方向に流れていくはずです。
文字中心からビジュアル中心へ
その前に補助線としてデジタル世界におけるコミュニケーションの大まかな流れを振り返りたいと思います。インターネット誕生以降、文字中心からビジュアル中心へと移行してきたというのが個人的な考えです。
テキストサイトの台頭(1997年頃)
↓
サイトを作るのにhtmlなどの知識が必要で大変
↓
ブログの台頭(2003年頃)
↓
設定はラクになったが、文書を書くのが大変
↓
Twitterの台頭(2007年頃)
↓
140文字を書くのすら面倒
↓
Instagramの台頭(2016年頃)
↓
文字を書かなくて良くなったが、構図をかんがえるのが面倒
↓
TikTokの台頭(2018年頃)
↓
文章は最低限でOK、センスの問われる構図も不要、フォロワーが少なくてもバズる可能性があるというこれまでのSNSの課題を一定克服した
文章を書くことは時代を経ることに簡略化しつづけ、やがて文字ではなくビジュアル中心でのコミュニケーションの世界へとゆっくり移行してきたように思います。
ちなみにこのような考えは自分だけのオリジナルではなく、例えば電通も別の視点から同じようなことを言及していたりします。
Chat UIとオブジェクトベースUI
整理します。
人間は怠惰な方へと流れていく
文字中心からビジュアル中心へとコミュニケーションは移行してきた
ということを前段までで確認してきました。
これはtoCだけでなく、toBサービスでも同様の流れが起きており、Slackの絵文字でのコミュニケーションやNotionの絵文字がデフォルトで設定されている世界観などもこの延長線上にあると思います。
そう考えると今のChat UIの文字中心のコミュニケーションというのは過渡期的な状態なのではないかというのが個人的な所感です。文字を入力するのも、ChatGPTが生成した文章を読むのも、文字中心からビジュアル中心へ移行してきた怠惰な流れにおいて逆行するからです。
ではどうあるべきなのか?
それを考える際にタスクベースとオブジェクトベースの視点がヒントになってくると思います。
簡単に解説するとタスクベースとは「タスク → オブジェクト」の順番でユーザーに行動させるアプローチであり、オブジェクトベースは「オブジェクト → タスク」の順番で行動させるアプローチです(両者の違いについては下記の記事がまとまっていてわかりやすいのでこちらもぜひ参考にどうぞ)
わかりやすい例でいうと、Open AIなどのチャット欄にプロンプトを打ち込むのはタスクベースです(書くというタスクが先行するので)。逆にNotion AIは文章というオブジェクトを選択して、それに対して各種タスクを実行するのでオブジェクトベースになります。


タスクベースの欠点としてはまず文字をゼロから打ち込むということをしなければならず、ここにハードルの高さがあります。下記のツイートでも指摘していますが、現状のChat UIは入力するに当たっての手がかりが少なすぎるんですね。
3/ チャットボットのUI問題
— Off Topic / オフトピック (@OffTopicJP) July 6, 2023
チャットボットを使うUIが増えているが、今のチャットボットの課題はコンテキストが足りてないこと。
今だとテキストを入力することしか分からないので、もっとUIとしてはどういう情報をインプットするべきかなどのコンテキストを提供するのが必要になる。 pic.twitter.com/QDRpz8Z18N
それに対してオブジェクトベースのNotion AIはすでにある要素を選択すれば良いだけなので、行動までのハードルは低くなります。このようなアプローチをいかに取り入れられるかが、プロダクトへのシームレスなLLMの導入という観点では今後ますます重要になってくるだろうなと考えます。
このあたりのChat UIをめぐる議論は自分だけでなく、最近は様々な方が言及しています。オブジェクトベース的なアプローチだけが必ずしも正義ではないですが、デザイナーとしてはChat UIを銀の弾丸だと捉えずに最適なUIを模索していきたいと思います。
おわりに
といわけでChat UIとインターフェースの未来についての考察でした。これは個人的観測であり、いや違うんじゃないの?こういう未来もありうるんじゃないの?などいろいろな見方もあると思います。その不確実さも含めて今はとても面白い状況だなと感じます。
自分が所属しているMNTSQはAI SaaSのプロダクトを提供しており、まさにどのようにプロダクトにLLMなどを組み込んでいくかの議論が盛り上がっている状況です。このようなわくわくするフェーズでプロダクト開発を一緒に進めていただける方を絶賛募集しています。ちょっとでも興味がありましたらぜひカジュアル面談させていただけたら嬉しいです!