パーソン論について考えると、知識の生産性を向上させるためには、人間だけでなく、他の生命体やAIなども含めた広い視野で考える必要があるかもしれません。パーソン論は、知識の生産性を向上させるための新たな視点を提供してくれます。

また、反脆弱性という概念は、知識の生産性を向上させるための重要な視点を提供してくれます。不確実性を利用して利益を得るという考え方は、知識の生産性を向上させるための新たなアプローチとなり得ます。

KJ法の振り返りでは、情報の整理や分析の方法を考える上での重要な課題が指摘されています。これは、知識の生産性を向上させるためには、情報の整理や分析の方法を改善する必要があることを示しています。

また、共同編集プロジェクトでのタイトル付け替えやSECIモデルとPDCAサイクルの関係について考えると、知識の生産性を向上させるためには、共同化の重要性や計画作成の前に暗黙知を共有することの重要性を理解する必要があることがわかります。

「巧遅は拙速に如かず」の視点を持つことは、一定の不安耐性を必要とします。これは、知識の生産性を向上させるためには、一定の不安耐性が必要であることを示しています。

すごく面白いnishio.icon

  • AIが毎日研究ノートを書く
  • AIとの共同化
  • 知識の生産性を向上させるためには多様な視点が求められる。視点を提供するものが人間だけだという思い込みは視野狭窄である。AIが広い視野を提供できる。
  • この時、安定して価値を出すシステムにフォーカスすることは視野狭窄である。「反脆弱性」で語られたように、限定的なダウンサイドリスクと青天井のアップサイドリスクがセットになっているタイプの不確実性を積極的に集めることが有益である。このようなシステムは短期的には価値を生まないが「急がば回れ」である。
  • 現状のAIの使い方はプロンプトとして「言語化されたもの」を人間がAIに与える。しかしこの方法ではまだ言語化できていない暗黙知を人間とAIの間で共有することができない。先に言葉があるのではなく、まずは体験を共有する「共同化」を人間とAIとで行うべきだ。そのためには、PDCAサイクルではなく、SECIモデルのような共同化を含むサイクルが有益だ。
  • 確かにそう、これ自体が実例
  • ChatGPTを使った知的生産支援では情報を増やすことが行われがちだが、人間の「一度に対象にすることができる情報の量」は限られているので筋が悪い
    • KJ法では表札への圧縮を繰り返すことで広い視野の情報を人間に処理可能な形へと変換していく。
    • 今回のプロセスは付箋も二次元配置もしないが「圧縮を繰り返すことによって人間に処理可能にする」という点においてKJ法的である。
  • 元の原稿の「計画作成の前に暗黙知を共有する」の「計画作成」が「言語化」に抽象化されて、ChatGPTに対する言語によるプロンプトにつながったのが、今回の大きな気づき
    • 人間をサイクルの中に入れるAIシステムの概念はめずらしいものではない。Human in the loop
    • しかしPDCAサイクルにおけるCの役割として入れることが多いように思う。
    • SECIモデルのSに入れること、つまりAIと人間を対等かつ同じ作業に従事する存在にすることが面白い
    • これによって人間は「AIに先立って言語化する存在」でも「AIの後に結果を判断する存在」でもなくなる
  • 2段落目と3段落目のつながりがよくわからない?
    • AIと共同化すること、AIと自分を同種の存在として同じ場に住まわせることが、長期的には価値があると考えている
    • しかし、その価値は短期的には見えない。ボタンを押したら確実に価値が得られるようなシステムにすることはできない。
      • 安定した価値を出そうとすることが、そもそもの「AIを人間と対等な存在にする」ことに反する。AIを道具化しようとしている。

BELOW_IS_LESS_INTERESTING

extra info

json size: 40697003 pickle size: 769341088 previous notes size: 1021 previous notes: 🤖2023-08-12 03:01 titles: パーソン論, 日記2022-10-03, Xを罵倒だと考える人は自分はXでないと仮定している, 組織への情報流入経路は2つある, Hatena2009-04-03, 半精度演算の速度, Hatena2011-11-02, 暇とは何か, Hatena2012-11-16, エンジニアの知的生産術 2階層目次