指示能力が必要みたいな話もちらほら散見するが、あったほうがましくらいな感じがした。
指示についても、確率的に正しい指示をしてくれるようになればよい。
能力に応じた成果物となるため、必須という感じではないなと思った。
ある程度人間的な指示でも確率的に正しそうなことを言ってくれるのありがたすぎ人類。
と思いつつも
その人が思いつかないことは指示できないし、出てきた結果の妥当性を読み取ることもできないため、結局人間の能力に依存しがち。
結局すごい補完マシンと考えるのが良い。
最近のAIってやつは
しかしながら最近のChatGPT5は提案も積極的にしてくれるから、知識の拡張、思っても見なかった発想の提供、順当な考え方の手順の整理までも担当してくれる。
今のところは無さそうな機能
プロジェクトの戦略を間違えると色々だめになってくるように、 最初のとっかかりを間違えると、その後の修正が難しくなりそうではある。
今のところは、とっかかりの前段階についてはAI側はおいている前提を知らないため、「今の問いは微妙だからやめたほうがいいよ」とか「それは俺に聞くことじゃないから本人に聞くべき」みたいな提案までは、まだ指示しなければ言ってくれない。
これに対抗するためには、とっかかりを与えるための情報空間と目的を俯瞰で見る能力、つまりは抽象具体化と帰納演繹の能力は当面はあってもよさそうである。
しかし、多分前提知識知らなくても一般的な類推で文脈的に確率的には何かしら言える気もするから、LLMの学習内容によっては、提案を何かしらするようにチューニングされているかもしれない。
最終的にすべて提案され、「はい/いいえ/その他の一言」で全部答え、わがまま令嬢になれる日も近いかもしれない。
人類わがまま令嬢計画。
全人類がわがまま令嬢になる日もそう遠くないのかもしれない。