ChatGPT IN ACTION 実践で使う大規模言語モデル を聴講した



こちらのイベントを聴講しました。
https://rector.connpass.com/event/278495/
話が面白すぎてあんまりメモとってなかったんですが、抜粋して。
LT
- GPTの登場で構造化されていないデータを扱えるようになった -> プロダクト設計の前提が変わる
- データの溜め方を見直す -> 会議やアポの録画など自然言語のデータを溜めておくと何かの資産になるかも
- Unlearn 前提が全て変わっていく
- プロンプトの言い換えで効果があるときがある (XXしないで は効果ないが、 XXは不要です。を最初に入れるとよい) 類似で、「名前は1回だけ表示してください」とか
- 目的と前提を明確にするとAIの応答が改善する = 人間と同じ!
- 音声 -> whisper -> chatGPT という流れ
- 薄いUI (音声、ただのテキスト) -> (プロンプト整形) -> chatGPT -> SoR (構造化データ)
- 薄いUI x 重要なデータ の積み上げ・活用が重要
パネルディスカッション
-
LLMを価値あるものにする上で注意すべきことは?
- Unrlearnする・しない
- どうやったら価値が生まれるかは人間が考える why whatの部分
- 逆に、今までの方法でどう実現するかはあんま考えない.アンラーニングする
- 発散と収縮
- LLMのおかげでとにかくいろんな案が出せるようになった
- とにかくたくさん出しまくって、実現性・倫理性などからOKそうなものを選ぶ
- 取捨選択をちゃんとやらないとAI自体の価値を毀損する
- 自動運転で事故ったとか
- 人間がどう使うかが大事
- LLMのおかげでとにかくいろんな案が出せるようになった
- Unrlearnする・しない
-
LLMの導入で関係者の説得が大変だったのは?
- プロンプトが十分に詰めれていない状態のベータ版を見せた結果、「あんま価値なくない?」という反応で周りのモチベが下がった
-
今後のUI/UXにどんな変化があるか?
- 今までのAPIは硬めのスキーマが必要だったが、「こんなデータください」で成り立つのであれば、全く異なるサービス間でのインテグレーションも変わるんじゃないか
- 見方によっては自然言語のコミュニケーションは面倒。なので、「こうでいいですか?」って聞いてきたら「はい」って答えるだけのUIとかが出てきそう
- 「いい感じにやっといて」だけで終わるツールがいい
-
GPTを使ったプロダクトを提供するとき、アウトプットにどこまで責任を持つか
- 期待値の調整が必要
- step by step で会話を踏むことで、ユーザーにも認知を持たせる
- 便利なものをどういう方向性で使うのか
感想
自分で利用してるだけだとweb検索を代替するものとしてどう使うかとか、いい感じのスキーマで吐き出してくれるやつとか、そんな枠組みでしか捉えきれてなかったんだけど、そういう今までの使いかたの延長っぽい考えでいるとプロダクトに面白味が出てこないんだなと気付かされた(そういう使い方も便利ではあるけど)。
考えようによっては無限のスキーマをもったAPI、というかそもそもスキーマっていう発想を捨てて考えた方がいいのかなあ。
今回取り上げられた事例では自然言語入れて、帰ってきた自然言語をそのまま使うパターンのものが多かった。(広木さんのだけちょっと違ってて、今までのエンジニアリングとプロンプトエンジニアリングを組み合わせたプロダクトって感じでだいぶ感動した。cloneして手元で動かしているが、自分もこんな感じのものを作ってみたくなる)
今のところ世間を見ていると、揺らぎを抑えて効率化するようなプロンプトエンジニアリングが盛んになっているように見える。
けど、こいつが本当に面白いのは「結果が冪等にならないこと」なんじゃないかなと個人的には思っていたりもして。
あえて揺らぎを作って、それをうまく利用できるような機能に落とし込めないかなとかちょっと考えている。
兎にも角にも、非常に刺激的でモチベーションの上がるイベントでした。
忙しい中超スピードで開催してくださった運営の皆さんに改めて感謝を。
ありがとうございました。