HANAMI RIE (JP)
KITAURA MUNEHIRO (JP)
JP2005148880A | 2005-06-09 | |||
JP2019028484A | 2019-02-21 |
\¥0 2020/175692 25 卩(:171? 2020 /008473 請求の範囲 [請求項 1 ] 教師判断対象データ、 前記教師判断対象データに対する判断結果を 示す教師判断結果データ、 および、 前記教師判断対象データに対する 判断結果の根拠を示す教師判断根拠データを入力する入力部と、 前記教師判断対象データと前記教師判断結果データとの関係を学習 する第 1の機械学習を行うことにより、 判断対象データが入力される と、 前記判断対象データに対する判断結果を示す判断推論データを出 力する判断推論モデルを生成する判断学習部と、 前記教師判断対象データと前記教師判断根拠データとの関係を学習 する第 2の機械学習を行うことにより、 前記判断対象データが入力さ れると、 前記判断対象データに対する前記判断結果の根拠を示す根拠 推論データを出力する根拠推論モデルを生成する根拠学習部と、 を備える学習装置。 [請求項 2] 前記判断推論モデルの少なくとも一部のノードは、 前記根拠推論モ デルの少なくとも一部のノードと異なる、 請求項 1 に記載の学習装置 [請求項 3] 前記教師判断結果データと前記判断推論データとの第 1の誤差と、 前記教師判断根拠データと前記根拠推論データとの第 2の誤差とに基 づいて、 前記第 1の機械学習および前記第 2の機械学習の少なくとも 一方を行う、 請求項 1 または 2に記載の学習装置。 [請求項 4] 前記第 1の誤差と前記第 2の誤差とに基づいて、 前記第 1の機械学 習および前記第 2の機械学習の両方を行う、 請求項 3に記載の学習装 置。 [請求項 5] 前記第 1の誤差と前記第 2の誤差との和が最小になるように、 前記 第 1の機械学習および前記第 2の機械学習の少なくとも一方を行う、 請求項 3または 4に記載の学習装置。 [請求項 6] 前記第 1の誤差と前記第 2の誤差との重み付けを異ならせて、 前記 第 1の機械学習および前記第 2の機械学習の少なくとも一方を行う、 \¥0 2020/175692 26 卩(:171? 2020 /008473 請求項 3から 5のいずれか一項に記載の学習装置。 [請求項 7] 前記判断学習部は、 前記第 2の機械学習とは独立して前記第 1の誤 差を小さくする前記第 1の機械学習を行い、 前記根拠学習部は、 前記第 1の機械学習とは独立して前記第 2の誤 差を小さくする前記第 2の機械学習を行い、 前記判断学習部および前記根拠学習部は、 前記第 1の誤差と前記第 2の誤差との和が最小になるように、 それぞれ前記第 1の機械学習お よび前記第 2の機械学習を行う、 請求項 3から 6のいずれか一項に記載の学習装置。 [請求項 8] 前記判断推論モデルは、 前記根拠推論モデルの少なくとも一部のノ —ドを含む、 請求項 1 に記載の学習装置。 [請求項 9] 前記少なくとも一部のノードは、 前記判断対象データが入力される ノードを含む、 請求項 8に記載の学習装置。 [請求項 10] 教師判断対象データと教師判断結果データとの関係を機械学習する ことにより生成された判断推論モデルに基づいて、 判断対象データに 対する判断結果を出力する第 1判断部と、 前記教師判断対象データと教師判断根拠データとの関係を機械学習 することにより生成された根拠推論モデルに基づいて、 前記判断対象 データに対する前記判断結果の根拠を出力する第 2判断部と、 を備える判断装置。 [請求項 1 1 ] 前記判断対象データを表示する判断対象データ表示領域と、 前記判断結果を表示する判断結果表示領域と、 前記判断結果の根拠を表示する判断根拠表示領域と、 を有する表示部を備える、 請求項 1 〇に記載の判断装置。 |
発明の名称 : 学習装置および判断装置
技術分野
[0001 ] 本発明は、 学習装置および判断装置に関する。
背景技術
[0002] 人間の熟練者が目視した入力画像と、 その入力画像に対する人間の熟練者 の判断結果とを機械学習する学習装置、 および、 人間の熟練者の判断結果を 推定する判断装置が知られている (例えば、 特許文献 1参照) 。
特許文献 1 特開 2 0 1 8—9 2 4 5 3号公報
解決しようとする課題
[0003] 従来は、 判断装置による判断結果の信頼性を検証する ことが困難であった 一般的開示
[0004] 本発明の第 1の態様においては、 学習装置を提供する。 学習装置は、 教師 判断対象データ、 教師判断対象データに対する判断結果を示す 教師判断結果 データ、 および、 教師判断対象データに対する判断結果の根拠 を示す教師判 断根拠データを入力する入力部と、 教師判断対象データと教師判断結果デー 夕との関係を学習する第 1の機械学習を行うことにより、 判断対象データが 入力されると、 判断対象データに対する判断結果を示す判断 推論データを出 力する判断推論モデルを生成する判断学習部 と、 教師判断対象データと教師 判断根拠データとの関係を学習する第 2の機械学習を行うことにより、 判断 対象データが入力されると、 判断対象データに対する判断結果の根拠を示 す 根拠推論データを出力する根拠推論モデルを 生成する根拠学習部と、 を備え る。
[0005] 判断推論モデルの少なくとも一部のノードは 、 根拠推論モデルの少なくと も一部のノードと異なっていてよい。
[0006] 学習装置は、 教師判断結果データと判断推論データとの第 1の誤差と、 教 \¥0 2020/175692 2 卩(:171? 2020 /008473
師判断根拠データと根拠推論データとの第 2の誤差とに基づいて、 第 1の機 械学習および第 2の機械学習の少なくとも一方を行ってよい
[0007] 学習装置は、 第 1の誤差と第 2の誤差とに基づいて、 第 1の機械学習およ び第 2の機械学習の両方を行ってもよい。
[0008] 学習装置は、 第 1の誤差と第 2の誤差との和が最小になるように、 第 1の 機械学習および第 2の機械学習の少なくとも一方を行ってよい
[0009] 学習装置は、 第 1の誤差と第 2の誤差との重み付けを異ならせて、 第 1の 機械学習および第 2の機械学習の少なくとも一方を行ってもよ 。
[0010] 判断学習部は、 第 2の機械学習とは独立して第 1の誤差を小さくする第 1 の機械学習を行ってよい。 根拠学習部は、 第 1の機械学習とは独立して第 2 の誤差を小さくする第 2の機械学習を行ってよい。 判断学習部および根拠学 習部は、 第 1の誤差と第 2の誤差との和が最小になるように、 それぞれ第 1 の機械学習および第 2の機械学習を行ってよい。
[001 1 ] 判断推論モデルは、 根拠推論モデルの少なくとも一部のノードを 含んでよ い。
[0012] 根拠推論モデルの少なくとも一部のノードは 、 判断対象データが入力され るノードを含んでよい。
[0013] 本発明の第 2の態様においては、 判断装置を提供する。 判断装置は、 教師 判断対象データと教師判断結果データとの関 係を機械学習することにより生 成された判断推論モデルに基づいて、 判断対象データに対する判断結果を出 力する第 1判断部と、 教師判断対象データと教師判断根拠データと の関係を 機械学習することにより生成された根拠推論 モデルに基づいて、 判断対象デ —夕に対する判断結果の根拠を出力する第 2判断部と、 を備える。
[0014] 判断装置は、 表示部を備えてよい。 表示部は、 判断対象データを表示する 判断対象データ 表示領域と、 判断結果を表示する判断結果表示領域と、 判断 結果の根拠を表示する判断 根拠表示領域と、 を有してよい。
[0015] なお、 上記の発明の概要は、 本発明の必要な特徴の全てを列挙したもので はない。 また、 これらの特徴群のサブコンビネーシヨンもま た、 発明となり \¥0 2020/175692 3 卩(:171? 2020 /008473
うる。
図面の簡単な説明
[0016] [図 1]本発明の一つの実施形態に係る学習装置 1 0 0の一例を示す図である。
[図 2]第 1の機械学習 6 0および第 2の機械学習 7 0の一例を模式的に示す図 である。
[図 3]第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図である
[図 4]本発明の一つの実施形態に係る学習装置 1 0 0の他の一例を示す図であ る。
[図 5]図 4の例における第 1の機械学習 6 0および第 2の機械学習 7 0の一例 を模式的に示す図である。
[図 6]図 4および図 5の例における第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図である。
[図 7]第 1の機械学習 6 0および第 2の機械学習 7 0の他の一例を模式的に示 す図である。
[図 8]本発明の一つの実施形態に係る判断装置 2 0 0の一例を示す図である。 [図 9]判断装置 2 0 0による判断結果 2 8および判断結果の根拠 3 8の出力の _例を示す図である。
[図 10]判断装置 2 0 0の一例を示す図である。
発明を実施するための形態
[0017] 以下、 発明の実施の形態を通じて本発明を説明する が、 以下の実施形態は 請求の範囲にかかる発明を限定するものでは ない。 また、 実施形態の中で説 明されている特徴の組み合わせの全てが発明 の解決手段に必須であるとは限 らない。
[0018] 図 1は、 本発明の一つの実施形態に係る学習装置 1 0 0の一例を示す図で ある。 学習装置 1 〇〇は、 入力部 1 〇、 判断学習部 2 0および根拠学習部 3 0を備える。 入力部 1 〇には、 教師判断対象データ 1 2、 教師判断結果デー 夕 1 4および教師判断根拠データ 1 6が入力される。 入力部 1 0は、 教師判 \¥0 2020/175692 4 卩(:171? 2020 /008473
断対象データ 1 2および教師判断結果データ 1 4を、 判断学習部 2 0に入力 する。 入力部 1 〇は、 教師判断対象データ 1 2および教師判断根拠データ 1 6を、 根拠学習部 3 0に入力する。
[0019] 教師判断対象データ 1 2は、 当該データに関する所定の判断が既にされて いる教師データである。 教師判断対象データ 1 2は、 画像データ、 音声デー 夕、 テキストデータ等の所定の種類の情報を含む データであってよい。 より 具体的な例として、 教師判断対象データ 1 2は、 野菜、 果物および精肉等の 生産物の画像を含む画像データである。
[0020] 教師判断結果データ 1 4は、 教師判断対象データ 1 2に対する判断結果を 示すデータである。 教師判断結果データ 1 4は、 教師判断対象データ 1 2に 対して人間等の判断者が判断した結果を示す データであってよい。 当該判断 は、 熟練者が行うことが好ましい。 教師判断結果データ 1 4は、 選択肢とし て予め設定された複数の結果のうち、 判断者により選択された 1つまたは複 数の結果を示すデータであってよい。 例えば教師判断対象データ 1 2が生産 物に係る画像データである場合、 教師判断結果データ 1 4は、 当該生産物の 品質を評価した評価結果を示すデータであっ てよい。 教師判断結果データ 1 4は、 判断の元となった教師判断対象データ 1 2と対応付けられた状態で、 入力部 1 0に入力される。
[0021 ] 教師判断根拠データ 1 6は、 教師判断対象データ 1 2に対して、 教師判断 結果データ 1 4に示される結果を判断した根拠を示すデー である。 教師判 断根拠データ 1 6は、 教師判断結果データ 1 4に示される結果を判断した人 間等の判断者が、 当該判断の根拠として入力したデータであっ てよい。 教師 判断根拠データ 1 6は、 選択肢として予め設定された複数の根拠のう ち、 判 断者により選択された 1つまたは複数の根拠を示すデータであって よい。 教師判断根拠データ 1 6は、 教師判断対象データ 1 2に含まれる一部の情報 を指定するデータであってもよい。 教師判断根拠データ 1 6は、 教師判断対 象データ 1 2に含まれる画像の一部の領域を指定するデ タであってよく、 画像の一部の領域の特性を示すデータであっ てもよい。 例えば判断者が、 教 \¥0 2020/175692 5 卩(:171? 2020 /008473
師判断対象データ 1 2に含まれる画像データから果物の果皮の所 の部分の 変色を根拠に当該果物を品質不良と判断した 場合、 教師判断根拠データ 1 6 は、 その果物の所定の部分の果皮が変色している ことを示すデータである。 教師判断根拠データ 1 6は、 判断の元となった教師判断対象データ 1 2と対 応付けられた状態で、 入力部 1 0に入力される。
[0022] 判断学習部 2 0は、 教師判断対象データ 1 2と教師判断結果データ 1 4と の関係を学習する第 1の機械学習を行い、 判断推論モデル 2 2を生成する。 判断推論モデル 2 2は、 判断対象データが入力されると、 判断対象データに 対して所定の処理を行い、 当該判断対象データに対する判断結果を示す 判断 推論データを出力するモデルである。 判断学習部 2 0は、 多数の教師判断対 象データ 1 2と教師判断結果データ 1 4との関係を学習することで、 判断推 論モデル 2 2における処理を最適化する。
[0023] 根拠学習部 3 0は、 教師判断対象データ 1 2と教師判断根拠データ 1 6と の関係を学習する第 2の機械学習を行い、 根拠推論モデル 3 2を生成する。 根拠推論モデル 3 2は、 判断対象データが入力されると、 判断対象データに 対して所定の処理を行い、 当該判断対象データに対する判断結果の根拠 を示 す根拠推論データを出力するモデルである。 根拠学習部 3 0は、 多数の教師 判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習することで、 根拠推論モデル 3 2における処理を最適化する。
[0024] 学習装置 1 0 0は、 記憶部 4 0— 1および記憶部 4 0— 2を備えてよい。
記憶部 4 0 _ 1は、 判断学習部 2 0が生成した判断推論モデル 2 2を記憶す る。 記憶部 4 0 _ 2は、 根拠学習部 3 0が生成した根拠推論モデル 3 2を記 憶する。
[0025] 本例の学習装置 1 0 0は、 教師判断対象データ 1 2と教師判断結果データ
1 4との関係を学習する第 1の機械学習だけでなく、 教師判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習も行う。 即 ち、 学習装置 1 〇〇は、 判断推論モデル 2 2だけでなく、 根拠推論モデル 3 2も生成する。 学習装置 1 0 0は、 判断推論モデル 2 2および根拠推論モデ \¥0 2020/175692 6 卩(:171? 2020 /008473
ル 3 2を用いることで、 新たな判断対象データに対して、 判断推論データと 根拠推論データの両方を出力できる。 このため、 利用者は、 判断推論データ の妥当性を根拠推論データに基づいて検証し やすくなる。 また、 判断推論デ —夕が提示された利用者に、 根拠推論データも合わせて提示できるので、 利 用者が判断推論データを解釈しやすくなる。 根拠推論データを伴わずに判断 推論データだけが利用者に提示されると、 利用者は、 判断推論データに示さ れる結果が妥当であるか否かの判断に迷いや すい。
[0026] 教師判断対象データ 1 2は、 野菜、 精肉等の生産物に係る画像データ、 株 価の変動等の投資に係るデータ、 医療等の診断に係るデータであってもよい 。 教師判断対象データ 1 2が株価の変動等の投資に係るデータである 合、 教師判断結果データ 1 4は、 株価の変動等の教師判断対象データ 1 2に基づ いて人間の熟練者が投資を行うか否かを判断 したデータであってよい。 また 、 教師判断根拠データ 1 6は、 人間の熟練者が当該投資を行うか否かを判断 した根拠データであってよい。 教師判断対象データ 1 2が医療等の診断に係 るデータである場合、 教師判断結果データ 1 4は、 医療等の診断に係るデー 夕に基づいて人間の熟練者が決定した治療内 容に関するデータであってよい 。 また、 教師判断根拠データ 1 6は、 人間の熟練者が当該治療内容に決定し た根拠データであってよい。
[0027] 教師判断対象データ 1 2が医療等の診断に係るデータである場合、 教師判 断対象データ 1 2は、 より具体的には、 種々の症例に対する I、 〇丁お よびエコー画像などの医療画像または動画、 ならびに心電図や呼吸音などの バイタル信号等のデータであってよい。 この場合、 教師判断結果データ 1 4 は上記データを元に医師が判断した疾患名で あってよい。 学習装置 1 〇〇は 、 上記の教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習 する第 1の機械学習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教師判断根拠データ 1 6は、 上記データに対する医師の所見を判断根拠と し て含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習を行い、 \¥0 2020/175692 7 卩(:171? 2020 /008473
根拠推論モデル 3 2を生成してよい。 その結果、 本実施形態に係る判断装置 は、 〇丁およびエコー画像などの医療画像または 動画、 ならびに心 電図や呼吸音などのバイタル信号等の判断対 象データに対して、 判断結果と して当該判断推論モデル 2 2に基づいて疾患名を出力し、 当該根拠推論モデ ル 3 2に基づいてその判断根拠となった所見を出 してよい。 医師は、 これ らの情報を元に、 最終的判断を行う。 これにより、 医師による疾患の見落と しと、 判断装置の誤判断を同時に防ぐことができる 。
[0028] また、 教師判断対象データ 1 2は、 人事データであってもよい。 教師判断 対象データ 1 2が人事データである場合、 教師判断対象データ 1 2は、 より 具体的には従業員プロファイルであってよい 。 この場合、 教師判断結果デー 夕 1 4は当該従業員の所定の活動領域 (研究開発/営業など) におけるパフ ォーマンスを含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断 対象データ 1 2と教師判断結果データ 1 4との関係を学習する第 1の機械学 習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教師判断根拠デー 夕 1 6は上記従業員がパフォーマンスを発揮した 拠 (理由) を含むデータ であってよい。 学習装置 1 0 0は、 上記の教師判断対象データ 1 2と教師判 断根拠データ 1 6との関係を学習する第 2の機械学習を行い、 根拠推論モデ ル 3 2を生成してよい。 その結果、 本実施形態に係る判断装置は、 従業員プ ロファイル等の人事データに対して、 判断結果として当該判断推論モデル 2 2に基づいて採用対象者に期待されるパフォ マンスを出力し、 当該根拠推 論モデル 3 2に基づいてその判断根拠となったパフォー ンスを発揮する根 拠を出力してよい。 このように、 本実施形態に係る学習装置および判断装置 を企業における採用活動や人事評価に利用す ることができる。
[0029] また、 教師判断対象データ 1 2は、 工場における設備点検に関するデータ であってもよい。 教師判断対象データ 1 2が設備点検に関するデータである 場合、 教師判断対象データ 1 2は、 より具体的には工場における設備点検対 象物の画像や動作音のデータであってよい。 この場合、 教師判断結果データ 1 4は、 当該設備点検対象物に対する熟練者の点検結 果 (要交換、 要詳細点 \¥0 2020/175692 8 卩(:171? 2020 /008473
検、 重篤な問題なしなど) を含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習す る第 1の機械学習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教 師判断根拠データ 1 6は上記設備点検対象物のデータに対する熟 者の判断 根拠を含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象デ —夕 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習を行 い、 根拠推論モデル 3 2を生成してよい。 その結果、 本実施形態に係る判断 装置は、 点検対象物の画像や動作音等の判断対象デー タに対して、 判断結果 として当該判断推論モデル 2 2に基づいて当該点検対象物の点検結果を出 し、 当該根拠推論モデル 3 2に基づいてその判断根拠を出力してよい。 これ により、 本実施形態に係る学習装置および判断装置を 工場における設備点検 に利用することができる。
[0030] 第 1の機械学習および第 2の機械学習のそれぞれには、 公知のアルゴリズ ムを用いることができる。 公知のアルゴリズムとしては、 例えば、 ニューラ ルネッ トワーク、 ランダムフォレスト、 勾配ブースティング、 リッジ回帰、 ラッソ回帰、 ロジスティック回帰、 および、 サボートべクタマシン (3 1\/1 ) などを挙げることができる。 ニューラルネッ トワークは、 畳み込み型、 リ カレント型またはタイムディレイ型などの型 式であってよい。 また、 判断推 論モデル 2 2および根拠推論モデル 3 2は、 それぞれ入カデータに対する分 類結果および分類結果の根拠を出力してもよ いし、 それぞれ入カデータに対 する回帰結果および回帰結果の根拠を出力し てもよい。
[0031 ] 図 2は、 第 1の機械学習 6 0および第 2の機械学習 7 0の一例を模式的に 示す図である。 判断推論モデル 2 2は、 複数の層 2 3を有する。 それぞれの 層 2 3は、 複数のノード 2 4を有する。 それぞれのノード 2 4は、 入力され たパラメータに対して所定の演算を行う。 判断推論モデル 2 2は、 複数の層 2 3における複数のノード 2 4の所定の演算結果に基づいて、 判断推論デー 夕 2 6を出力する。 学習装置 1 0 0は、 判断推論データ 2 6を教師判断結果 データ 1 4と比較して、 第 1の誤差口 1 を算出する。 \¥0 2020/175692 9 卩(:171? 2020 /008473
[0032] 本明細書においては、 図 2において教師判断対象データ 1 2が入力される 側を前段側とし、 判断推論データ 2 6が出力される側を後段側とする。 判断 推論モデル 2 2は、 前段側から後段側まで、 複数の層 2 3を連続的に有して よい。 一の層 2 3に属する複数のノード 2 4における演算結果は、 他の層 2 3に属する複数のノード 2 4にそれぞれ入力されてよい。 当該他の層 2 3は 、 当該一の層 2 3の後段側の層であってよい。
[0033] 図 2に示される判断推論モデル 2 2は、 一例として 3つの層 2 3を有し、
3つの層 2 3のそれぞれが 4つのノード 2 4を有する。 本例の判断推論モデ ル 2 2は、 前段側から後段側まで、 層 2 3— 1、 層 2 3— 2および層 2 3— 3を連続的に有する。 層 2 3— 1は 4つのノード 2 4— 1 を有し、 層 2 3— 2は 4つのノード 2 4— 2を有し、 層 2 3— 3は 4つのノード 2 4— 3を有 する。 図 2において、 4つのノード 2 4 _ 1 を八 1 ~八4、 4つのノード 2 4— 2 を巳 1 ~巳4、 4つのノード 2 4— 3を〇 1 ~〇4と、 それぞれ示し ている。
[0034] 4つのノード 2 4 - 1は、 それぞれX 1〜X 6で示される 6つの教師判断 対象データ 1 2に対して所定の演算を行い、 その演算結果を 4つのノード 2 4— 2に出力する。 図 2においては、 X 1から八 1 ~八4への矢印のみ示し ており、 X 2〜X 6から八 1 ~八4への矢印を省略している。 4つのノード 2 4 - 1は、 それぞれ 6つの教師判断対象データ 1 2に対して所定の重み付 けをして演算を行ってもよい。
[0035] 4つのノード 2 4— 2は、 4つのノード 2 4— 1からの出力に対して所定 の演算を行い、 その演算結果を 4つのノード 2 4— 3に出力する。 図 2にお いては、 への矢印のみ示しており、 八2 ~八4から巳 1 ~巳 4への矢印を省略している。 4つのノード 2 4— 2は、 それぞれ 4つの ノード 2 4— 1からの出力に対して所定の重み付けをして 算を行ってもよ い。
[0036] 4つのノード 2 4— 3は、 4つのノード 2 4— 2からの出力に対して所定 の演算を行い、 その演算結果を出力する。 図 2においては、 巳 1から〇 1 ~ \¥0 2020/175692 10 卩(:171? 2020 /008473
〇 4への矢印のみ示しており、 巳 2〜巳4から〇 1〜〇 4への矢印を省略し ている。 4つのノード 2 4— 3は、 それぞれ 4つのノード 2 4— 2からの出 力に対して所定の重み付けをして演算を行っ てもよい。
[0037] される 3つの判断推論データ 2 6は、 4つのノード 2 4—
3からの出力に対して所定の演算を行い、 生成される。 図 2においては、 〇 1から 1 ~ 3への矢印のみ示しており、
矢印を省略している。 3つの判断推論データ 2 6は、 それぞれ 4つのノード 2 4— 3からの出力に対して所定の重み付けをして 算を行ってもよい。
[0038] 学習装置 1 0 0は、 をそれぞれ丁 1 〜丁3で示される 3つの教師判断結果データ 1 4と比較する。 学習装置 1 0 0は、 をそれぞれ丁 1 ~丁 3と比較し、 第 1の誤差口 1 を算出す る。
[0039] 根拠推論モデル 3 2は、 複数の層 3 3を有する。 それぞれの層 3 3は、 複 数のノード 3 4を有する。 それぞれのノード 3 4は、 入力されたパラメータ に対して所定の演算を行う。 根拠推論モデル 3 2は、 複数の層 3 3における 複数のノード 3 4の所定の演算結果に基づいて、 根拠推論データ 3 6を出力 する。 学習装置 1 〇〇は、 根拠推論データ 3 6を教師判断根拠データ 1 6と 比較して、 第 2の誤差 0 2を算出する。
[0040] 本明細書においては、 図 2において教師判断対象データ 1 2が入力される 側を前段側とし、 根拠推論データ 3 6が出力される側を後段側とする。 根拠 推論モデル 3 2は、 前段側から後段側まで、 複数の層 3 3を連続的に有して よい。 一の層 3 3に属する複数のノード 3 4における演算結果は、 他の層 3 3に属する複数のノード 3 4にそれぞれ入力されてよい。 当該他の層 3 3は 、 当該一の層 3 3の後段側の層であってよい。
[0041 ] 図 2に示される根拠推論モデル 3 2は、 一例として教師判断対象データ 1
2が入力される側から 3つの層 3 3を有し、 3つの層 3 3のそれぞれが 4つ のノード 3 4を有する。 本例の根拠推論モデル 3 2は、 前段側から後段側ま で、 層 3 3— 1、 層 3 3— 2および層 3 3— 3を連続的に有する。 層 3 3— \¥02020/175692 11 卩(:171? 2020 /008473
1は 4つのノード 34— 1 を有し、 層 33— 2は 4つのノード 34— 2を有 し、 層 33— 3は 4つのノード 34— 3を有する。 図 2において、 ノード 3 4— 1、 ノード 34— 2およびノード 34— 3を、 それぞれ 匕 1 ~匕4および〇 1 ~〇 4と示している。
[0042] 4つのノード 34- 1は、 それぞれX 1〜X 6で示される 6つの教師判断 対象データ 1 2に対して所定の演算を行い、 その演算結果を 4つのノード 3 4— 2に出力する。 図 2においては、 X 1から 8 1 ~ 84への矢印のみ示し ており、 への矢印を省略している。 4つのノード 34- 1は、 それぞれ 6つの教師判断対象データ 1 2に対して所定の重み付 けをして演算を行ってもよい。
[0043] 4つのノード 34— 2は、 4つのノード 34— 1からの出力に対して所定 の演算を行い、 その演算結果を 4つのノード 34— 3に出力する。 図 2にお いては、 しており、 32~84から 1〇 1 ~匕 4への矢印を省略している。 4つのノード 34— 2は、 それぞれ 4つの ノード 34— 1からの出力に対して所定の重み付けをして 算を行ってもよ い。
[0044] 4つのノード 34— 3は、 4つのノード 34— 2からの出力に対して所定 の演算を行い、 その演算結果を出力する。 図 2においては、 13 1から〇 1 ~ 〇 4への矢印のみ示しており、 62~匕4から〇 1 ~〇 4への矢印を省略し ている。 4つのノード 34— 3は、 それぞれ 4つのノード 34— 2からの出 力に対して所定の重み付けをして演算を行っ てもよい。
[0045] で示される 3つの根拠推論データ 36は、 4つのノード 34-
3からの出力に対して所定の演算を行い、 生成される。 図 2においては、 〇 1から å 1 ~ å 3への矢印のみ示しており、 〇 2~〇 4から å 1 ~å 3への 矢印を省略している。 3つの根拠推論データ 36は、 それぞれ 4つのノード 34— 3からの出力に対して所定の重み付けをして 算を行ってもよい。
[0046] 学習装置 1 00は、 をそれぞれ で示される 3つの教 師判断根拠データ 1 6と比較する。 学習装置 1 00は、 2 1 ~å 3をそれぞ \¥0 2020/175692 12 卩(:171? 2020 /008473 と比較し、 第 2の誤差 0 2を算出する。
[0047] 判断推論モデル 2 2の少なくとも一つのノード 2 4は、 根拠推論モデル 3
2の少なくとも一つのノード 3 4と異なっていてよい。 少なくとも一つのノ -ド 2 4が少なくとも一つのノード 3 4と異なるとは、 根拠推論モデル 3 2 が当該少なくとも一つのノード 2 4を有さず、 判断推論モデル 2 2が当該少 なくとも一つのノード 3 4を有さないことを指す。 本例においては、 判断推 論モデル 2 2の全てのノード 2 4が、 根拠推論モデル 3 2の全てのノード 3 4と異なる。 言い換えると、 本例においては、 判断学習部 2 0および根拠学 習部 3 0は、 それぞれ独立に第 1の機械学習 6 0および第 2の機械学習 7 0 行う。
[0048] なお、 層 2 3の数は 3つより多くてもよい。 層 2 3が有するノード 2 4の 数は、 4つより多くてもよく、 少なくてもよい。 層 2 3— 1、 層 2 3— 2お よび層 2 3 - 3が有するノード 2 4の数は、 それぞれ異なっていてもよい。 同様に、 層 3 3の数は 3つより多くてもよい。 層 3 3が有するノード 3 4の 数は、 4つより多くてもよく、 少なくてもよい。 層 3 3— 1、 層 3 3— 2お よび層 3 3 - 3が有するノード 3 4の数は、 それぞれ異なっていてもよい。 また、 層 2 3の数と層 3 3の数は、 異なっていてもよい。
[0049] 図 3は、 第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図 である。 ステップ 3 1 0 0において、 学習装置 1 0 0は判断推論モデル 2 2 および根拠推論モデル 3 2の初期モデルを呼び出す。 当該初期モデルは、 そ れぞれ記憶部 4 0 _ 1および記憶部 4 0 - 2 (図 1参照) に記憶されていて もよい。
[0050] ステップ 3 1 0 2において、 学習装置 1 0 0は入力部 1 0に教師判断対象 データ 1 2、 教師判断結果データ 1 4および教師判断根拠データ 1 6を入力 する。 判断学習部 2 0は、 教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習する第 1の機械学習 6 0を行う。 根拠学習部 3 0は、 教師 判断根拠データ 1 6と教師判断結果データ 1 4との関係を学習する第 2の機 械学習 7 0を行う。 判断学習部 2 0は、 第 1の機械学習 6 0を行うことによ \¥0 2020/175692 13 卩(:171? 2020 /008473
り判断推論モデル 2 2を生成する。 根拠学習部 3 0は、 第 2の機械学習 7 0 を行うことにより根拠推論モデル 3 2を生成する。
[0051 ] ステップ 3 1 0 4において、 学習装置 1 0 0はモデル誤差を算出する。 モ デル誤差とは、 判断推論モデル 2 2が出力する判断推論データ 2 6と教師判 断結果データ 1 4との第 1の誤差 0 1、 および、 根拠推論モデル 3 2が出力 する根拠推論データ 3 6と教師判断根拠データ 1 6との第 2の誤差 0 2を指 す。
[0052] 第 1の誤差口 1および第 2の誤差 0 2を算出する関数を、 それぞれ第 1誤 差関数チ 1および第 2誤差関数チ 2とする。 学習装置 1 0 0は、 第 1の誤差 口 1 を、 判断推論データ 2 6と教師判断結果データ 1 4とを第 1誤差関数†
1 に入力することにより算出してよい。 学習装置 1 0 0は、 第 2の誤差 0 2 を、 根拠推論データ 3 6と教師判断根拠データ 1 6とを第 2誤差関数チ 2に 入力することにより算出してよい。
[0053] 第 1誤差関数チ 1および第 2誤差関数チ 2は、 平均二乗誤差関数、 平均絶 対誤差関数、 平均二乗対数誤差関数、 交差エントロピー誤差関数、 コネクシ ョニスト時系列分類法を用いた関数、 ヒンジ損失関数、 「関数、 指 数損失関数、 1_ダイバージェンス ( リ I I
〇1 I V 6 「 9 6 11 0 6) 関数、 等の公知の損失関数のいずれかであってよい 。 第 1誤差関数干 1 と第 2誤差関数干 2とは、 同じであってよく、 同じでな くてもよい。
[0054] ステップ 3 1 0 6において、 学習装置 1 0 0は、 第 1の誤差口 1 に基づい てノード 2 4における演算の重み付け係数 (パラメータ) を調整し、 第 2の 誤差に口 2に基づいてノード 3 4における演算の重み付け係数 (パラメータ ) を調整する。 学習装置 1 〇〇は第 1の誤差口 1 に基づいて、 複数の層 2 3 のそれぞれに属するノード 2 4ごとに、 重み付け係数を調整してよい。 また 、 学習装置 1 0 0は第 2の誤差 0 2に基づいて、 複数の層 3 3のそれぞれに 属するノード 3 4ごとに、 重み付け係数を調整してよい。 即ち、 重み付け係 数は、 複数の層 2 3のそれぞれに属するノード 2 4ごとに異なっていてよく \¥0 2020/175692 14 卩(:171? 2020 /008473
、 複数の層 3 3のそれぞれに属するノード 3 4ごとに異なっていてよい。
[0055] 図 2に示される例においては、 学習装置 1 0 0は第1の誤差口 1 に基づい て、 6つの教師判断対象データ 1 2と 4つのノード 2 4 - 1 との間、 4つの ノード 2 4— 1 と 4つのノード 2 4— 2との間、 4つのノード 2 4— 2と 4 つのノード 2 4 _ 3との間、 および、 4つのノード 2 4 _ 3と 3つの判断推 論データ 2 6との間の重み付け係数 (パラメータ) を調整する。 また、 学習 装置 1 0 0は第 2の誤差 0 2に基づいて、 6つの教師判断対象データ 1 2と 4つのノード 3 4— 1 との間、 4つのノード 3 4— 1 と 4つのノード 3 4— 2との間、 4つのノード 3 4 - 2と 4つのノード 3 4 - 3との間、 および、
4つのノード 3 4— 3と 3つの根拠推論データ 3 6との間の重み付け係数 ( パラメータ) を調整する。
[0056] ステップ 3 1 0 8において、 学習装置 1 0 0は判断推論モデル 2 2および 根拠推論モデル 3 2が、 それぞれ第 1の機械学習 6 0および第 2の機械学習 7 0を完了したかどうかを判断する。 学習装置 1 0 0は、 予め定められた第 1の閾値丁 1 と第 1の誤差 0 1 とを比較して、 第 1の機械学習 6 0を完了す るか否かを判断してよい。 学習装置 1 〇〇は、 予め定められた第 2の閾値丁 2と第 2の誤差 0 2とを比較して、 第 2の機械学習 7 0を完了するか否かを 判断してよい。 第 1の閾値丁 1 と第 2の閾値丁 2とは異なっていてよく、 等 しくてもよい。
[0057] 第 1の誤差 0 1が第 1の閾値丁 1 よりも大きい場合、 学習装置 1 0 0はス テップ3 1 0 2に戻り、 入力部 1 0に教師判断対象データ 1 2および教師判 断結果データ 1 4を入力する。 第 2の誤差 0 2が第 2の閾値丁 2よりも大き い場合、 学習装置 1 0 0はステップ 3 1 0 2に戻り、 入力部 1 0に教師判断 対象データ 1 2および教師判断根拠データ 1 6を入力する。
[0058] 学習装置 1 0 0は、 ステップ 3 1 0 8からステップ 3 1 0 2に戻るごとに 、 異なる教師判断対象データ 1 2、 異なる教師判断結果データ 1 4および異 なる教師判断根拠データ 1 6を入力部 1 0に入力してよい。 ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返すごとに、 判断学習部 2 0が第 1の \¥0 2020/175692 15 卩(:171? 2020 /008473
機械学習 6 0を繰り返し、 根拠学習部 3 0が第 2の機械学習 7 0を繰り返す ので、 判断推論モデル 2 2および根拠推論モデル 3 2の精度が向上する。 こ のため、 判断推論モデル 2 2および根拠推論モデル 3 2は、 判断対象データ に対して精度の高い判断結果および判断結果 の根拠をそれぞれ出力できる。
[0059] ステップ3 1 0 2〜ステップ3 1 0 8のループを繰り返して第 1の誤差口
1が第 1の閾値丁 1 よりも小さくなった場合、 学習装置 1 0 0は第1の機械 学習 6 0を完了してステップ 3 1 1 0に進む。 同様に、 ステップ 3 1 0 2〜 ステップ 3 1 0 8のループを繰り返して第 2の誤差 0 2が第 2の閾値丁 2よ りも小さくなった場合、 学習装置 1 〇〇は第 2の機械学習 7 0を完了してス テップ3 1 1 0に進む。 ステップ 3 1 1 0において、 学習装置 1 0 0は判断 推論モデル 2 2および根拠推論モデル 3 2を、 それぞれ記憶部 4 0 _ 1およ び記憶部 4 0 - 2に保存してよい。
[0060] 判断学習部 2 0は、 第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小 さくする第 1の機械学習 6 0を行ってよい。 根拠学習部 3 0は、 第 1の機械 学習 6 0とは独立して第 2の誤差口 2を小さくする第 2の機械学習 7 0を行 ってよい。 即ち、 判断学習部 2 0は根拠推論データ 3 6の影響を受けずに第 1の機械学習 6 0を行ってよく、 根拠学習部 3 0は判断推論データ 2 6の影 響を受けずに第 2の機械学習 7 0を行ってよい。
[0061 ] 学習装置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行し て行ってよい。 学習装置 1 0 0は、 第 1の機械学習 6 0を行った後に第 2の 機械学習 7 0を行ってもよく、 第 2の機械学習 7 0を行った後に第 1の機械 学習 6 0を行ってもよい。
[0062] 図 4は、 本発明の一つの実施形態に係る学習装置 1 0 0の他の一例を示す 図である。 本例の学習装置 1 0 0は、 判断学習部 2 0における第 1の機械学 習 6 0の学習結果が根拠学習部 3 0にフィードバックされ、 根拠学習部 3 0 における第 2の機械学習 7 0の学習結果が判断学習部 2 0にフィードバック される点で、 図 1の学習装置 1 0 0と異なる。
[0063] 図 5は、 図 4の例における第 1の機械学習 6 0および第 2の機械学習 7 0 \¥0 2020/175692 16 卩(:171? 2020 /008473
の一例を模式的に示す図である。 本例において、 学習装置 1 〇〇は教師判断 結果データ 1 4と判断推論データ 2 6との第 1の誤差口 1 と、 教師判断根拠 データ 1 6と根拠推論データ 3 6との第 2の誤差 0 2に基づいて、 第 1の機 械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行う。 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 1の機械学習 6 0および第 2の機械学習 7 0の両方を行ってもよい。
[0064] 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて第 1の 機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行うことで、 判 断推論モデル 2 2の学習に根拠推論モデル 3 2の学習結果を反映させること ができる。 その結果、 判断学習部 2 0は、 判断推論モデル 2 2と根拠推論モ デル 3 2とを独立に学習させた場合と比較して、 教師判断結果データ 1 4と 教師判断根拠データ 1 6との隠された関係を反映した判断推論モデ 2 2を 構築することができる。
[0065] 学習装置 1 0 0は、 第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小 さくする第 1の機械学習 6 0を行った後に、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 1の機械学習 6 0を行ってもよい。 これにより、 学習装 置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行して行う場 合よりも、 第 1の機械学習 6 0を早く収束させることができる。
[0066] 学習装置 1 0 0は、 第 1の機械学習 6 0とは独立して第 2の誤差 0 2を小 さくする第 2の機械学習 7 0を行った後に、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 2の機械学習 7 0を行ってもよい。 これにより、 学習装 置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行して行う場 合よりも、 第 2の機械学習 7 0を早く収束させることができる。
[0067] 学習装置 1 0 0は、 ノード 8 0において第 1の誤差 0 1 と第 2の誤差 0 2 に所定の演算を行ってよい。 所定の演算には、 第 1の誤差口 1 と第 2の誤差 口 2との和、 第 1の誤差 0 1 と第 2の誤差 0 2との平均、 および、 第 1の誤 差口 1 と第 2の誤差 0 2との加重平均が含まれてよい。 学習装置 1 0 0は、 ノード 8 0において第 1の誤差口 1 と第 2の誤差 0 2とに所定の演算を行っ \¥0 2020/175692 17 卩(:171? 2020 /008473
た結果に基づいて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少なく とも一方を行ってよい。 第 1の誤差口 1および第 2の誤差 0 2に所定の演算 を行った結果は、 複数のノード 2 4のいずれかにフイードバックされてよく 、 複数のノード 3 4のいずれかにフイードバックされてよい。 図 5の例にお いては、 第 1の誤差口 1および第 2の誤差 0 2に所定の演算を行った結果は 、 ノード 2 4— 1〜ノード 2 4— 3のいずれかにフイードバックされてよく 、 ノード 3 4— 1〜ノード 3 4— 3のいずれかにフイードバックされてよい
[0068] 図 6は、 図 4および図 5の例における第 1の機械学習 6 0および第 2の機 械学習 7 0のフローを示す図である。 図 6のフローは、 図 3のステップ 3 1 0 4とステップ 3 1 0 6の間に評価用誤差を算出するステップ 3 1 0 5をさ らに有する点で、 図 3のフローと異なる。 ステップ 3 1 0 5以外の学習装置 1 0 0の動作は、 図 3における各ステップと同じである。
[0069] ステップ 3 1 0 4において、 学習装置 1 0 0はモデル誤差を算出する。 モ デル誤差とは、 判断推論モデル 2 2が出力する判断推論データ 2 6と教師判 断結果データ 1 4との誤差 0 1 (第 1の誤差口 1) 、 および、 根拠推論モデ ル 3 2が出力する根拠推論データ 3 6と教師判断根拠データ 1 6との誤差 0 2 (第 2の誤差 0 2) を指す。
[0070] ステップ3 1 0 5において、 学習装置 1 0 0はモデル誤差から評価用誤差 口を算出する。 評価用誤差口とは、 学習装置 1 0 0がモデル誤差に所定の演 算を行った誤差を指す。
[0071 ] 学習装置 1 0 0は、 第 1の誤差口 1および第 2の誤差 0 2を用いて合成誤 差を算出してよい。 当該合成誤差を、 合成誤差 IV! 0とする。 学習装置 1 0 0 は、 合成誤差 IV! 0に基づいて第 1の機械学習 6 0または第 2の機械学習 7 0 を行ってよい。 合成誤差 第 1の誤差口 1 と第 2の誤差 0 2との和で あってもよい。 学習装置 1 〇〇は、 合成誤差 として第 1の誤差 0 1 と第 2の誤差 0 2との和を用いて、 当該合成誤差 IV! 0が最小になるように、 第 1 の機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってもよい \¥0 2020/175692 18 卩(:171? 2020 /008473
。 即ち、 学習装置 1 〇〇は評価用誤差口 (合成誤差 を第 1の誤差口 1 と第 2の誤差 0 2との和とし、 当該評価用誤差口が最小になるように第 1の 機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってよい。 学 習装置 1 0 0は、 ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返す 毎にステップ 3 1 0 5において当該評価用誤差〇を算出し、 当該評価用誤差 口が最小になるまでステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返 してよい。
[0072] 本例の学習装置 1 0 0は、 評価用誤差口が最小になるまで第 1の機械学習
6 0および第 2の機械学習 7 0を繰り返すので、 判断推論モデル 2 2および 根拠推論モデル 3 2の精度が向上する。 このため、 判断推論モデル 2 2およ び根拠推論モデル 3 2は、 判断対象データに対して精度の高い判断結果 およ び判断結果の根拠をそれぞれ出力できる。
[0073] 学習装置 1 0 0は、 合成誤差 IV! 0として第 1の誤差 0 1 と第 2の誤差 0 2 との重み付けを異ならせて、 第 1の機械学習 6 0および第 2の機械学習 7 0 の少なくとも一方を行ってよい。 即ち、 学習装置 1 0 0は第 1の誤差口 1 と 第 2の誤差 0 2との重み付けを異ならせて算出された合成 差 を評価用 誤差口として用いて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少な くとも一方を行ってよい。 当該評価用誤差口は、 第 1の誤差口 1 と第 2の誤 差口 2との加重平均であってよい。 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2との重み付けを異ならせた評価用誤差 0を用いて第 1の機械学 習 6 0または第 2の機械学習 7 0を行うことにより、 判断結果および判断結 果の根拠のうち、 どちらの精度を重視して学習するかを調整す ることができ る。
[0074] 学習装置 1 0 0は、 合成誤差 IV! 0における第 1の誤差 0 1 と第 2の誤差 0
2との重み付けを、 調整可能であってよい。 学習装置 1 0 0は、 予め定めら れたステップ回数ごとに当該重み付けを変更 した合成誤差 IV! 0を用いて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってもよ い。 例えば、 第 1の機械学習 6 0を行う場合に、 学習装置 1 0 0は、 当初は \¥0 2020/175692 19 卩(:171? 2020 /008473
合成誤差 IV! 0における一方の誤差 (例えば、 第 1の誤差口 1) の重み付けを 大きく して第 1の機械学習 6 0を行い、 ステップ回数が進むごとに他方の誤 差 (例えば、 第 2の誤差 0 2) の重み付けを大きく して第 1の機械学習 6 0 を行ってもよい。 これにより、 学習装置 1 0 0は、 第 1の機械学習 6 0の収 束速度と、 生成される判断推論モデル 2 2の精度とのバランスを取ることが できる。 この場合、 学習装置 1 0 0は、 第 1の機械学習 6 0の収束状況に応 じて当該重み付けを調整してもよい。 また、 第 2の機械学習 7 0を行う場合 に、 学習装置 1 〇〇は、 当初は合成誤差 IV! 0における一方の誤差 (例えば、 第 2の誤差 0 2) の重み付けを大きく して第 2の機械学習 7 0を行い、 ステ ップ回数が進むごとに他方の誤差 (例えば、 第 1の誤差口 1) の重み付けを 大きく して第 2の機械学習 7 0を行ってもよい。 これにより、 学習装置 1 0 0は、 第 2の機械学習 7 0の収束速度と、 生成される判断根拠モデル 3 2の 精度とのバランスを取ることができる。 この場合、 学習装置 1 0 0は、 第 2 の機械学習 7 0の収束状況に応じて当該重み付けを調整し もよい。
[0075] ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返す場合において、 判断学習部 2 0が第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小さく する第 1の機械学習 6 0を行い、 根拠学習部 3 0が第 1の機械学習 6 0とは 独立して第 2の誤差 0 2を小さくする第 2の機械学習 7 0を行った後、 判断 学習部 2 0および根拠学習部 3 0は第 1の誤差口 1 と第 2の誤差 0 2の和が 最小になるように、 それぞれ第 1の機械学習 6 0および第 2の機械学習 7 0 を行ってもよい。 即ち、 学習装置 1 0 0は図 3におけるステップ 3 1 0 2〜 ステップ 3 1 0 8のループを所定回数繰り返した後、 図 6におけるステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返してもよい。 また、 学習装置 1 0 0は図 6におけるステップ3 1 0 2〜ステップ3 1 0 8のループを所定 回数繰り返した後、 図 3におけるステップ 3 1 0 2〜ステップ 3 1 0 8のル —プを繰り返してもよい。 学習装置 1 〇〇は、 図 3のループと図 6のループ を交互に複数回繰り返してもよい。
[0076] 図 7は、 第 1の機械学習 6 0および第 2の機械学習 7 0の他の一例を模式 \¥0 2020/175692 20 卩(:171? 2020 /008473
的に示す図である。 判断推論モデル 2 2は、 根拠推論モデル 3 2の少なくと も一つのノード 3 4を含んでよい。 また、 根拠推論モデル 3 2は、 判断推論 モデル 2 2の少なくとも一つのノード 2 4を含んでよい。
[0077] 図 7に示される例においては、 4つのノード 2 4 _ 1はそれぞれ X 1 ~乂
6で示される 6つの教師判断対象データ 1 2に対して所定の重み付けをして 演算を行い、 その演算結果を 4つのノード 2 4— 2および 4つのノード 3 4 - 2に出力する。 4つのノード 2 4 - 2は、 4つのノード 2 4 - 1および 4 つのノード 3 4— 1からの出力に対して所定の重み付けをして 算を行い、 その演算結果を 4つのノード 2 4— 3に出力する。
[0078] 本例においては、 4つのノード 3 4 _ 1はそれぞれ X 1 〜 X 6で示される
6つの教師判断対象データ 1 2に対して所定の重み付けをして演算を行い その演算結果を 4つのノード 3 4— 2および 4つのノード 2 4— 2に出力す る。 4つのノード 3 4 - 2は、 4つのノード 3 4 - 1および 4つのノード 2 4 - 1からの出力に対して所定の重み付けをして 算を行い、 その演算結果 を 4つのノード 3 4— 3に出力する。
[0079] 図 7の例においても、 学習装置 1 0 0は図 3に示されるフロー図に沿って 第 1の機械学習 6 0および第 2の機械学習 7 0を行ってよい。 本例において は、 判断学習部 2 0 (図 1参照) はノード 2 4およびノード 3 4に対して第 1の機械学習 6 0を繰り返し、 根拠学習部 3 0 (図 1参照) はノード 3 4お よびノード 2 4に対して第 2の機械学習 7 0を繰り返す。 このため、 判断推 論モデル 2 2は、 判断対象データに対して根拠推論モデル 3 2の学習結果も 加味した、 精度の高い判断結果を出力できる。 また、 根拠推論モデル 3 2は 、 判断対象データに対して判断推論モデル 2 2の学習結果も加味した、 精度 の高い判断結果の根拠を出力できる。
[0080] 判断推論モデル 2 2は、 根拠推論モデル 3 2における複数のノード 3 4の うち、 前段側のノード 3 4を含んでよい。 根拠推論モデル 3 2は、 判断推論 モデル 2 2における複数のノード 2 4のうち、 前段側のノード 2 4を含んで よい。 図 7の例においては、 判断推論モデル 2 2は判断対象データが入力さ \¥0 2020/175692 21 卩(:171? 2020 /008473
れるノード 3 4 - 1 を含み、 根拠推論モデル 3 2は判断対象データが入力さ れるノード 2 4 _ 1 を含む。 判断推論モデル 2 2が前段側のノード 3 4を含 み、 根拠推論モデル 3 2が前段側のノード 2 4を含むことで、 共通する演算 結果が後段側のノード 2 4およびノード 3 4に入力される。 このため、 学習 装置 1 0 0は、 判断推論データ 2 6と根拠推論データ 3 6との関連性を強く できる。
[0081 ] 図 8は、 本発明の一つの実施形態に係る判断装置 2 0 0の一例を示す図で ある。 判断装置 2 0 0は、 入力部 1 0、 第 1判断部 4 2および第 2判断部 4 4を備える。 入力部 1 0には、 判断対象データ 1 8が入力される。 入力部 1 〇は、 判断対象データ 1 8を第 1判断部 4 2および第 2判断部 4 4に入力す る。
[0082] 第 1判断部 4 2は、 判断推論モデル 2 2に基づいて判断対象データ 1 8に 対する判断結果 2 8を出力する。 第 2判断部 4 4は、 根拠推論モデル 3 2に 基づいて判断対象データ 1 8に対する判断結果の根拠 3 8を出力する。 判断 推論モデル 2 2は、 第 1の機械学習 6 0を完了した判断学習部 2 0 (図 1参 照) により生成されたモデルであってよい。 根拠推論モデル 3 2は、 第 2の 機械学習 7 0を完了した根拠学習部 3 0 (図 1参照) により生成されたモデ ルであってよい。 即ち、 当該判断推論モデル 2 2および当該根拠推論モデル 3 2は、 それぞれ図 3のフローにおけるステップ 3 1 0 8において丫㊀ 3と 判断されたモデルであってよい。 判断推論モデル 2 2は、 記憶部 4 0— 1 に 保存されていてよい。 根拠推論モデル 3 2は、 記憶部 4 0 _ 2に保存されて いてよい。
[0083] 本例の判断装置 2 0 0は、 教師判断対象データ 1 2と教師判断結果データ
1 4との関係を機械学習することにより生成さ た判断推論モデル 2 2に基 づいて、 判断対象データ 1 8に対する判断結果 2 8を出力する。 また、 本例 の判断装置 2 0 0は、 教師判断対象データ 1 2と教師判断根拠データ 1 6と の関係を機械学習することにより生成された 根拠推論モデル 3 2に基づいて 、 判断対象データ 1 8に対する判断結果の根拠 3 8を出力する。 このため、 \¥0 2020/175692 22 卩(:171? 2020 /008473 根拠推論モデル 3 2は判断結果 2 8に対して利用者が解釈しやすい判断結果 の根拠 3 8を出力できる。
[0084] 図 9は、 判断装置 2 0 0による判断結果 2 8および判断結果の根拠 3 8の 出力の一例を示す図である。 本例において、 判断対象データ 1 8はメロン 1 9である。 判断推論モデル 2 2は、 メロン 1 9の品質を人間等の判断者が判 断した判断結果を機械学習 (第 1の機械学習 6 0) することにより生成され たモデルである。 根拠推論モデル 3 2は、 メロン 1 9の品質を人間等の判断 者が判断した判断結果の根拠を機械学習 (第 2の機械学習 7 0) することに より生成されたモデルである。 当該判断結果には、 人間等の判断者がメロン 1 9の品質を判断した複数の結果が含まれてい 。 判断者が人間である場合 、 当該判断結果には、 人間がメロン 1 9を目視した結果から、 または、 メロ ン 1 9の表面に触れた感覚から、 メロン 1 9の品質を判断した結果が含まれ てよい。 本例においては、 この複数の結果は 「まだ食べ頃ではない」 、 「今 が食べ頃」 および 「もう食べ頃を過ぎている」 の 3つの選択肢を含む。 また 、 当該判断結果の根拠には、 人間等の判断者がメロン 1 9の品質を判断した 複数の根拠が含まれている。 本例においては、 この複数の根拠は、 「ツルが しっかりしている」 、 「ツルがしなびている」 、 「皮は全体的に同じ様子」 および 「皮の一部がみずみずしい」 の 4つの選択肢を含む。
[0085] 判断結果 2 8は、 メロン 1 9の品質が 「まだ食べ頃ではない」 、 「今が食 ベ頃」 および 「もう食べ頃を過ぎている」 のいずれかに該当する確率値を示 してよい。 図 9においては、 判断結果 2 8の確率値をヒストグラムにて示し ている。 判断結果の根拠 3 8は、 メロン 1 9に対する判断結果 2 8の根拠と して、 「ツルがしっかりしている」 、 「ツルがしなびている」 、 「皮は全体 的に同じ様子」 および 「皮の一部がみずみずしい」 のいずれかに該当する確 率値を示してよい。 図 9においては、 判断結果の根拠 3 8の確率値をヒスト グラムにて示している。
[0086] 本例の判断装置 2 0 0は、 判断対象データ 1 8 (メロン 1 9) に対して判 断結果 2 8と判断結果の根拠 3 8の両方を出力できる。 このため、 利用者は \¥0 2020/175692 23 卩(:171? 2020 /008473
判断結果 2 8の妥当性を判断結果の根拠 3 8に基づいて検証しやすくなる。 また、 本例の判断装置 2 0 0は、 判断結果 2 8が提示された利用者に判断結 果の根拠 3 8も合わせて提示できるので、 利用者が判断結果 2 8を解釈しや すくなる。 言い換えると、 判断装置 2 0 0は、 人間等の判断者に判断対象に 関する品質の判断結果とその根拠を尋ねた場 合の回答と同等の回答を出力で きる。 また、 人間等の判断者は、 当該判断者が判断対象データ 1 8 (メロン 1 9) に対して行った判断結果およびその根拠を、 それぞれ判断推論モデル 2 2に基づく判断結果 2 8および根拠推論モデル 3 2に基づく判断結果の根 拠 3 8と比較することにより、 判断対象データ 1 8 (メロン 1 9) に対する 判断を学習できる。
[0087] 図 1 0は、 判断装置 2 0 0の一例を示す図である。 判断装置 2 0 0は、 一 例として〇 II、 メモリおよびインターフエース等を備えるコ ンビユータで ある。
[0088] 判断装置 2 0 0は、 表示部 2 1 0を備えてよい。 図 1 0に、 表示部 2 1 0 の拡大図を太線の矩形領域にて合わせて示し ている。 表示部 2 1 0は、 判断 対象データ表示領域 2 2 0、 判断結果表示領域 2 3 0および判断根拠表示領 域 2 4 0を有してよい。
[0089] 判断対象データ表示領域 2 2 0は、 判断対象データ 1 8を表示する。 本例 においては、 判断対象データ表示領域 2 2 0は判断対象データ 1 8としてメ ロン 1 9の画像を表示している。 判断結果表示領域 2 3 0は、 判断結果 2 8 を表示する。 本例においては、 判断結果表示領域 2 3 0は、 判断推論モデル 2 2が出力したメロン 1 9の品質の判断結果 2 8として 3つの選択肢の確率 値をそれぞれ表示している。 当該 3つの選択肢には、 「まだ食べ頃ではない 」 、 「今が食べ頃」 および 「もう食べ頃を過ぎている」 が含まれている。 判 断根拠表示領域 2 4 0は、 判断結果の根拠 3 8を表示する。 本例においては 、 判断根拠表示領域 2 4 0は、 根拠推論モデル 3 2が出力したメロン 1 9の 品質の判断結果の根拠 3 8として 4つの選択肢の確率値をそれぞれ表示して いる。 当該 4つの選択肢には、 「ツルがしっかりしている」 、 「ツルがしな \¥02020/175692 24 卩(:171? 2020 /008473
びている」 、 「皮は全体的に同じ様子」 および 「皮の一部がみずみずしい」 が含まれている。
[0090] 以上、 本発明を実施の形態を用いて説明したが、 本発明の技術的範囲は上 記実施の形態に記載の範囲には限定されない 。 上記実施の形態に、 多様な変 更または改良を加えることが可能であること が当業者に明らかである。 その 様な変更または改良を加えた形態も本発明の 技術的範囲に含まれ得ることが 、 請求の範囲の記載から明らかである。
[0091] 請求の範囲、 明細書、 および図面中において示した装置、 システム、 プロ グラム、 および方法における動作、 手順、 ステップ、 および段階等の各処理 の実行順序は、 特段 「より前に」 、 「先立って」 等と明示しておらず、 また 、 前の処理の出力を後の処理で用いるのでない 限り、 任意の順序で実現しう ることに留意すべきである。 請求の範囲、 明細書、 および図面中の動作フロ —に関して、 便宜上 「まず、 」 、 「次に、 」 等を用いて説明したとしても、 この順で実施することが必須であることを意 味するものではない。
符号の説明
[0092] 1 0 · · ·入力部、 1 2 · · ·教師判断対象データ、 1 4 · · ·教師判断結 果データ、 1 6 · · ·教師判断根拠データ、 1 8 · · ·判断対象データ、 1 9 メロン、 20 · · 判断学習部、 22 · · 判断推論モデル、 23 層、 24 ノード、 26 判断推論データ、 28 · · 判断 結果、 30 · · ·根拠学習部、 32 · · ·根拠推論モデル、 33 · · 層、 34 ノード、 36 · · 根拠推論データ、 38 · · 判断結果の根拠 . 40 · · ·記憶部、 42 · · 第 1判断部、 44 · · ·第 2判断部、 60 第 1の機械学習、 70 · · 第 2の機械学習、 80 · · ノード、 1 〇〇 学習装置、 200 · · ·判断装置、 2 1 0 · · ·表示部、 220 - 判断対象データ表示領域、 230 判断結果表示領域、 240 - -判断根拠表示領域
Next Patent: ULTRASONIC FLAW DETECTION DEVICE