付箋の再分割ができるなら、自動分割の粒度は大きくて良いのでは

  • 付箋の再分割: ✅付箋クリックで複数行インポートダイアログ
  • うまく分割できない入力を格助詞で分割しようとして過剰に粉々になるの後段階として付箋の再分割ができるようになったのだから無理に分割しない方が良いのかもしれない
    • 手動で分割し直すコストとのトレードオフ
  • 「長さ上限」がハードリミットなので「もっと長いのを許容しよう」って緩めると自然に短くできるものも長くなっちゃう
    • 分割のコストと分割しないコストを天秤にかける仕組みにしないとだなぁ…

image

知的活動の種類は色々あって、それらを抽象化してまとめ上げると抽象度が高すぎる 色々な活動ごとに絵を描いて比較するのをやるべきなのではないか 図は書籍を読んで読書メモを作ることをイメージ

  • A: 人間のインプット速度に限界があるために書籍丸ごと全部を内面に入れることはできない
  • B: 読んだものもどんどん忘れるので脳内で保持しておくことができない
    • これはメモを取らせずに書籍を読ませてランダムなタイミングで覚えてることを書き出させれば観察できる。
    • 直前のページですらきちんと復元することはできない
  • 入れたばっかりの情報がそんなに高速に消滅するにもかかわらず、なぜか一部の情報は長期記憶化する
    • 長期記憶は外部からの刺激によって引っ張り出される
      • image
      • これは読むよりは多少高速な気がする
    • 長期記憶は断片が一時記憶に留まっていた時間が伸びるほど作られやすくなる
      • だから本を読むだけの場合よりも、読書メモを作った場合の方が定着しやすい
      • 読書メモが再度インプットされることによる効果
      • 処理をする事によるCraik&Tulving 1975
  • 再利用に関して
    • 脳内にあって「思い出された」ものに関しては再度アウトプットする手間が掛かる
    • 外にあって検索やレコメンドで発見されたものに関しては、再度インプットする手間が掛かる
    • 検索
      • 単語の出現だけでマッチすると長文ほどたくさん単語があるからマッチしやすい
      • 長文ほどマッチした後のインプットのコスト高い
      • コンパクトな読書メモに変換してあると再度のインプットがしやすい
        • が、コンパクトに切り出す過程で文脈からの切り離しが起きる
        • これを損失と感じて怯えると長ったらしいメモになる
        • 実際、損失な時もある
        • コンパクトな断片を作った時に元の大きな断片へのリンクが保持されると良い
          • 心配せずにどんどん文脈を捨てても、必要ならリンクを辿って文脈の保持されてるものに戻ればいい
  • Regroupの付箋再分割機能のことを考えている
    • インポートした時のソースへのリンクを保つべきなのではないか
      • Keichoチャットだったり、Scrapboxのページだったり
    • 付箋再分割は元の付箋へのリンクを保つと良いのでは