ワンナイト人狼立川さんコミュニケーション論の文字起こしは読む気になるのに文字起こしCUMOT2018は読む気が起きないのはなぜか

nishio>人狼文字起こしの時は読む気になるのは、結局のところ「授業」とはいえ「すでに言語化されたコンテンツ」がテレビみたいに放映されているだけだから、文字起こしを読む必要がないということだろうか

tatekawa>

  • このデータ、活用として2段階あるのかなと予想してます。
    • 1.人間が読んで理解する。後から見返す
    • 2.自然言語処理のアルゴリズムにぶちこんで有益そうなデータを取り出す
    • 上記、1と2で分けたのは、要するに2なら使えそうだけど1として使うには何か編集なり工夫が必要ではないか?と考えたからです
  • 編集とか工夫があったら読み返す気になるのか、それとも講義資料とかがあれば十分だから読み返す気にならないのか
    • 後者なのかもしれない、と思った
  • 後者ですね。。
    • 自分の場合ですが、講義後にすぐ「自分のメモ」を整理して記録しておき、それを読み返します。講義資料でも情報が多すぎる感じがします。
    • 2時間の講義で学べることなんて、せいぜい箇条書きで3つくらいが限界なのでは?と常々思っています。。
  • なるほど。一方で「どの3つを自分の学びとするか」が人によって異なるよね、多分 - 同じコンテンツでも学ぶことは違う
  • なので自分は、講義後に他の人と意見交換することにすごく重きを置いています
  • 言語化→構造化→他人に説明、
    • 他人に説明することによって、自分が理解していないことがなんなのかが明らかになる
    • というところが大事そう
  • これと関係していると思った 知識積み上げのモデル
  • 僕このモデルは改良できると思っていて、上に箱を置いた結果、下の箱が生成されるような場面があると感じます
    • 例えば下から行くなら、ベクトル→線形代数→機械学習と思いますが、訳が分からないまま機械学習を学んだ結果、線形代数への理解が深まるみたいな場面です。
  • 素晴らしい
    • 僕の中の真のモデルはこちらだがいつも伝わらないので箱を積むことにたとえてる
    • 学習曲線がS字曲線になる原理
    • 土台は多い方が積みやすいが、運で上の箱を獲得することがあり、その場合は下の箱を効率よく獲得できるようになる
  • 浪人生の時、一年で数学の偏差値を40あげたんですが、その現象をすごく意識して学んだ記憶があります。当時は言語化できませんでしたがそういうことだったんですね
  • わけがわからないまま機械学習を学んでいる時、本当にピラミッドの頂上付近のことを学べているのか
    • そうではなく、地面に映った影を学んでいるのではないか
    • 常に影がある