直接引用モデル 注意機構に似ているが、注意自体を人間にフィードバックする必要がある 隠れマルコフモデルで使うビタビアルゴリズム 文章の粒度 キーフレーズ抽出よりももう少し長い物が欲しい 「発話」としての自然さが欲しい キーフレーズだと、短すぎる ppoiベースだとちょっと困る 1つのデータから複数の識別器が学習される 1つの文章の各文字について識別課題になるので、素朴にデータを作るとでかい 28万行 interactiveモードが遅い ダウンサンプリングを実装した 各点の前後5文字をとってunknownsに入れたのだが、その大部分は負例だし、5文字だけ見て教師にするの大変 事前にある程度教師を作らないといけないパターンか