Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
LEARNING DEVICE AND DETERMINATION DEVICE
Document Type and Number:
WIPO Patent Application WO/2020/175692
Kind Code:
A1
Abstract:
Provided is a learning device comprising: an input unit for inputting teaching determination target data, teaching determination result data that indicates the result of determination made on the teaching determination target data, and teaching determination ground data that indicates the grounds of result of determination made on the teaching determination target data; a determination learning unit which, when determination target data is inputted by performing first machine learning to learn a relationship between the teaching determination target data and the teaching determination result data, generates a determination inference model for outputting determination inference data that indicates the result of determination made on the determination target data; and a ground learning unit which, when determination target data is inputted by performing second machine learning to learn a relationship between the teaching determination target data and the teaching determination ground data, generates a ground inference model for outputting ground inference data that indicates the grounds of result of determination made on the determination target data.

Inventors:
MIYAZAKI TOSHIYUKI (JP)
HANAMI RIE (JP)
KITAURA MUNEHIRO (JP)
Application Number:
PCT/JP2020/008473
Publication Date:
September 03, 2020
Filing Date:
February 28, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
ASAHI CHEMICAL IND (JP)
International Classes:
G06N3/04; G06N3/08; G06N20/00; G06V10/764
Foreign References:
JP2005148880A2005-06-09
JP2019028484A2019-02-21
Attorney, Agent or Firm:
RYUKA IP LAW FIRM (JP)
Download PDF:
Claims:
\¥0 2020/175692 25 卩(:171? 2020 /008473

請求の範囲

[請求項 1 ] 教師判断対象データ、 前記教師判断対象データに対する判断結果を 示す教師判断結果データ、 および、 前記教師判断対象データに対する 判断結果の根拠を示す教師判断根拠データを入力する入力部と、 前記教師判断対象データと前記教師判断結果データとの関係を学習 する第 1の機械学習を行うことにより、 判断対象データが入力される と、 前記判断対象データに対する判断結果を示す判断推論データを出 力する判断推論モデルを生成する判断学習部と、

前記教師判断対象データと前記教師判断根拠データとの関係を学習 する第 2の機械学習を行うことにより、 前記判断対象データが入力さ れると、 前記判断対象データに対する前記判断結果の根拠を示す根拠 推論データを出力する根拠推論モデルを生成する根拠学習部と、 を備える学習装置。

[請求項 2] 前記判断推論モデルの少なくとも一部のノードは、 前記根拠推論モ デルの少なくとも一部のノードと異なる、 請求項 1 に記載の学習装置

[請求項 3] 前記教師判断結果データと前記判断推論データとの第 1の誤差と、 前記教師判断根拠データと前記根拠推論データとの第 2の誤差とに基 づいて、 前記第 1の機械学習および前記第 2の機械学習の少なくとも 一方を行う、 請求項 1 または 2に記載の学習装置。

[請求項 4] 前記第 1の誤差と前記第 2の誤差とに基づいて、 前記第 1の機械学 習および前記第 2の機械学習の両方を行う、 請求項 3に記載の学習装 置。

[請求項 5] 前記第 1の誤差と前記第 2の誤差との和が最小になるように、 前記 第 1の機械学習および前記第 2の機械学習の少なくとも一方を行う、 請求項 3または 4に記載の学習装置。

[請求項 6] 前記第 1の誤差と前記第 2の誤差との重み付けを異ならせて、 前記 第 1の機械学習および前記第 2の機械学習の少なくとも一方を行う、 \¥0 2020/175692 26 卩(:171? 2020 /008473

請求項 3から 5のいずれか一項に記載の学習装置。

[請求項 7] 前記判断学習部は、 前記第 2の機械学習とは独立して前記第 1の誤 差を小さくする前記第 1の機械学習を行い、

前記根拠学習部は、 前記第 1の機械学習とは独立して前記第 2の誤 差を小さくする前記第 2の機械学習を行い、

前記判断学習部および前記根拠学習部は、 前記第 1の誤差と前記第 2の誤差との和が最小になるように、 それぞれ前記第 1の機械学習お よび前記第 2の機械学習を行う、

請求項 3から 6のいずれか一項に記載の学習装置。

[請求項 8] 前記判断推論モデルは、 前記根拠推論モデルの少なくとも一部のノ

—ドを含む、 請求項 1 に記載の学習装置。

[請求項 9] 前記少なくとも一部のノードは、 前記判断対象データが入力される ノードを含む、 請求項 8に記載の学習装置。

[請求項 10] 教師判断対象データと教師判断結果データとの関係を機械学習する ことにより生成された判断推論モデルに基づいて、 判断対象データに 対する判断結果を出力する第 1判断部と、

前記教師判断対象データと教師判断根拠データとの関係を機械学習 することにより生成された根拠推論モデルに基づいて、 前記判断対象 データに対する前記判断結果の根拠を出力する第 2判断部と、 を備える判断装置。

[請求項 1 1 ] 前記判断対象データを表示する判断対象データ表示領域と、

前記判断結果を表示する判断結果表示領域と、 前記判断結果の根拠を表示する判断根拠表示領域と、

を有する表示部を備える、 請求項 1 〇に記載の判断装置。

Description:
\¥0 2020/175692 1 卩(:17 2020 /008473 明 細 書

発明の名称 : 学習装置および判断装置

技術分野

[0001 ] 本発明は、 学習装置および判断装置に関する。

背景技術

[0002] 人間の熟練者が目視した入力画像と、 その入力画像に対する人間の熟練者 の判断結果とを機械学習する学習装置、 および、 人間の熟練者の判断結果を 推定する判断装置が知られている (例えば、 特許文献 1参照) 。

特許文献 1 特開 2 0 1 8—9 2 4 5 3号公報

解決しようとする課題

[0003] 従来は、 判断装置による判断結果の信頼性を検証する ことが困難であった 一般的開示

[0004] 本発明の第 1の態様においては、 学習装置を提供する。 学習装置は、 教師 判断対象データ、 教師判断対象データに対する判断結果を示す 教師判断結果 データ、 および、 教師判断対象データに対する判断結果の根拠 を示す教師判 断根拠データを入力する入力部と、 教師判断対象データと教師判断結果デー 夕との関係を学習する第 1の機械学習を行うことにより、 判断対象データが 入力されると、 判断対象データに対する判断結果を示す判断 推論データを出 力する判断推論モデルを生成する判断学習部 と、 教師判断対象データと教師 判断根拠データとの関係を学習する第 2の機械学習を行うことにより、 判断 対象データが入力されると、 判断対象データに対する判断結果の根拠を示 す 根拠推論データを出力する根拠推論モデルを 生成する根拠学習部と、 を備え る。

[0005] 判断推論モデルの少なくとも一部のノードは 、 根拠推論モデルの少なくと も一部のノードと異なっていてよい。

[0006] 学習装置は、 教師判断結果データと判断推論データとの第 1の誤差と、 教 \¥0 2020/175692 2 卩(:171? 2020 /008473

師判断根拠データと根拠推論データとの第 2の誤差とに基づいて、 第 1の機 械学習および第 2の機械学習の少なくとも一方を行ってよい

[0007] 学習装置は、 第 1の誤差と第 2の誤差とに基づいて、 第 1の機械学習およ び第 2の機械学習の両方を行ってもよい。

[0008] 学習装置は、 第 1の誤差と第 2の誤差との和が最小になるように、 第 1の 機械学習および第 2の機械学習の少なくとも一方を行ってよい

[0009] 学習装置は、 第 1の誤差と第 2の誤差との重み付けを異ならせて、 第 1の 機械学習および第 2の機械学習の少なくとも一方を行ってもよ 。

[0010] 判断学習部は、 第 2の機械学習とは独立して第 1の誤差を小さくする第 1 の機械学習を行ってよい。 根拠学習部は、 第 1の機械学習とは独立して第 2 の誤差を小さくする第 2の機械学習を行ってよい。 判断学習部および根拠学 習部は、 第 1の誤差と第 2の誤差との和が最小になるように、 それぞれ第 1 の機械学習および第 2の機械学習を行ってよい。

[001 1 ] 判断推論モデルは、 根拠推論モデルの少なくとも一部のノードを 含んでよ い。

[0012] 根拠推論モデルの少なくとも一部のノードは 、 判断対象データが入力され るノードを含んでよい。

[0013] 本発明の第 2の態様においては、 判断装置を提供する。 判断装置は、 教師 判断対象データと教師判断結果データとの関 係を機械学習することにより生 成された判断推論モデルに基づいて、 判断対象データに対する判断結果を出 力する第 1判断部と、 教師判断対象データと教師判断根拠データと の関係を 機械学習することにより生成された根拠推論 モデルに基づいて、 判断対象デ —夕に対する判断結果の根拠を出力する第 2判断部と、 を備える。

[0014] 判断装置は、 表示部を備えてよい。 表示部は、 判断対象データを表示する 判断対象データ 表示領域と、 判断結果を表示する判断結果表示領域と、 判断 結果の根拠を表示する判断 根拠表示領域と、 を有してよい。

[0015] なお、 上記の発明の概要は、 本発明の必要な特徴の全てを列挙したもので はない。 また、 これらの特徴群のサブコンビネーシヨンもま た、 発明となり \¥0 2020/175692 3 卩(:171? 2020 /008473

うる。

図面の簡単な説明

[0016] [図 1]本発明の一つの実施形態に係る学習装置 1 0 0の一例を示す図である。

[図 2]第 1の機械学習 6 0および第 2の機械学習 7 0の一例を模式的に示す図 である。

[図 3]第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図である

[図 4]本発明の一つの実施形態に係る学習装置 1 0 0の他の一例を示す図であ る。

[図 5]図 4の例における第 1の機械学習 6 0および第 2の機械学習 7 0の一例 を模式的に示す図である。

[図 6]図 4および図 5の例における第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図である。

[図 7]第 1の機械学習 6 0および第 2の機械学習 7 0の他の一例を模式的に示 す図である。

[図 8]本発明の一つの実施形態に係る判断装置 2 0 0の一例を示す図である。 [図 9]判断装置 2 0 0による判断結果 2 8および判断結果の根拠 3 8の出力の _例を示す図である。

[図 10]判断装置 2 0 0の一例を示す図である。

発明を実施するための形態

[0017] 以下、 発明の実施の形態を通じて本発明を説明する が、 以下の実施形態は 請求の範囲にかかる発明を限定するものでは ない。 また、 実施形態の中で説 明されている特徴の組み合わせの全てが発明 の解決手段に必須であるとは限 らない。

[0018] 図 1は、 本発明の一つの実施形態に係る学習装置 1 0 0の一例を示す図で ある。 学習装置 1 〇〇は、 入力部 1 〇、 判断学習部 2 0および根拠学習部 3 0を備える。 入力部 1 〇には、 教師判断対象データ 1 2、 教師判断結果デー 夕 1 4および教師判断根拠データ 1 6が入力される。 入力部 1 0は、 教師判 \¥0 2020/175692 4 卩(:171? 2020 /008473

断対象データ 1 2および教師判断結果データ 1 4を、 判断学習部 2 0に入力 する。 入力部 1 〇は、 教師判断対象データ 1 2および教師判断根拠データ 1 6を、 根拠学習部 3 0に入力する。

[0019] 教師判断対象データ 1 2は、 当該データに関する所定の判断が既にされて いる教師データである。 教師判断対象データ 1 2は、 画像データ、 音声デー 夕、 テキストデータ等の所定の種類の情報を含む データであってよい。 より 具体的な例として、 教師判断対象データ 1 2は、 野菜、 果物および精肉等の 生産物の画像を含む画像データである。

[0020] 教師判断結果データ 1 4は、 教師判断対象データ 1 2に対する判断結果を 示すデータである。 教師判断結果データ 1 4は、 教師判断対象データ 1 2に 対して人間等の判断者が判断した結果を示す データであってよい。 当該判断 は、 熟練者が行うことが好ましい。 教師判断結果データ 1 4は、 選択肢とし て予め設定された複数の結果のうち、 判断者により選択された 1つまたは複 数の結果を示すデータであってよい。 例えば教師判断対象データ 1 2が生産 物に係る画像データである場合、 教師判断結果データ 1 4は、 当該生産物の 品質を評価した評価結果を示すデータであっ てよい。 教師判断結果データ 1 4は、 判断の元となった教師判断対象データ 1 2と対応付けられた状態で、 入力部 1 0に入力される。

[0021 ] 教師判断根拠データ 1 6は、 教師判断対象データ 1 2に対して、 教師判断 結果データ 1 4に示される結果を判断した根拠を示すデー である。 教師判 断根拠データ 1 6は、 教師判断結果データ 1 4に示される結果を判断した人 間等の判断者が、 当該判断の根拠として入力したデータであっ てよい。 教師 判断根拠データ 1 6は、 選択肢として予め設定された複数の根拠のう ち、 判 断者により選択された 1つまたは複数の根拠を示すデータであって よい。 教師判断根拠データ 1 6は、 教師判断対象データ 1 2に含まれる一部の情報 を指定するデータであってもよい。 教師判断根拠データ 1 6は、 教師判断対 象データ 1 2に含まれる画像の一部の領域を指定するデ タであってよく、 画像の一部の領域の特性を示すデータであっ てもよい。 例えば判断者が、 教 \¥0 2020/175692 5 卩(:171? 2020 /008473

師判断対象データ 1 2に含まれる画像データから果物の果皮の所 の部分の 変色を根拠に当該果物を品質不良と判断した 場合、 教師判断根拠データ 1 6 は、 その果物の所定の部分の果皮が変色している ことを示すデータである。 教師判断根拠データ 1 6は、 判断の元となった教師判断対象データ 1 2と対 応付けられた状態で、 入力部 1 0に入力される。

[0022] 判断学習部 2 0は、 教師判断対象データ 1 2と教師判断結果データ 1 4と の関係を学習する第 1の機械学習を行い、 判断推論モデル 2 2を生成する。 判断推論モデル 2 2は、 判断対象データが入力されると、 判断対象データに 対して所定の処理を行い、 当該判断対象データに対する判断結果を示す 判断 推論データを出力するモデルである。 判断学習部 2 0は、 多数の教師判断対 象データ 1 2と教師判断結果データ 1 4との関係を学習することで、 判断推 論モデル 2 2における処理を最適化する。

[0023] 根拠学習部 3 0は、 教師判断対象データ 1 2と教師判断根拠データ 1 6と の関係を学習する第 2の機械学習を行い、 根拠推論モデル 3 2を生成する。 根拠推論モデル 3 2は、 判断対象データが入力されると、 判断対象データに 対して所定の処理を行い、 当該判断対象データに対する判断結果の根拠 を示 す根拠推論データを出力するモデルである。 根拠学習部 3 0は、 多数の教師 判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習することで、 根拠推論モデル 3 2における処理を最適化する。

[0024] 学習装置 1 0 0は、 記憶部 4 0— 1および記憶部 4 0— 2を備えてよい。

記憶部 4 0 _ 1は、 判断学習部 2 0が生成した判断推論モデル 2 2を記憶す る。 記憶部 4 0 _ 2は、 根拠学習部 3 0が生成した根拠推論モデル 3 2を記 憶する。

[0025] 本例の学習装置 1 0 0は、 教師判断対象データ 1 2と教師判断結果データ

1 4との関係を学習する第 1の機械学習だけでなく、 教師判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習も行う。 即 ち、 学習装置 1 〇〇は、 判断推論モデル 2 2だけでなく、 根拠推論モデル 3 2も生成する。 学習装置 1 0 0は、 判断推論モデル 2 2および根拠推論モデ \¥0 2020/175692 6 卩(:171? 2020 /008473

ル 3 2を用いることで、 新たな判断対象データに対して、 判断推論データと 根拠推論データの両方を出力できる。 このため、 利用者は、 判断推論データ の妥当性を根拠推論データに基づいて検証し やすくなる。 また、 判断推論デ —夕が提示された利用者に、 根拠推論データも合わせて提示できるので、 利 用者が判断推論データを解釈しやすくなる。 根拠推論データを伴わずに判断 推論データだけが利用者に提示されると、 利用者は、 判断推論データに示さ れる結果が妥当であるか否かの判断に迷いや すい。

[0026] 教師判断対象データ 1 2は、 野菜、 精肉等の生産物に係る画像データ、 株 価の変動等の投資に係るデータ、 医療等の診断に係るデータであってもよい 。 教師判断対象データ 1 2が株価の変動等の投資に係るデータである 合、 教師判断結果データ 1 4は、 株価の変動等の教師判断対象データ 1 2に基づ いて人間の熟練者が投資を行うか否かを判断 したデータであってよい。 また 、 教師判断根拠データ 1 6は、 人間の熟練者が当該投資を行うか否かを判断 した根拠データであってよい。 教師判断対象データ 1 2が医療等の診断に係 るデータである場合、 教師判断結果データ 1 4は、 医療等の診断に係るデー 夕に基づいて人間の熟練者が決定した治療内 容に関するデータであってよい 。 また、 教師判断根拠データ 1 6は、 人間の熟練者が当該治療内容に決定し た根拠データであってよい。

[0027] 教師判断対象データ 1 2が医療等の診断に係るデータである場合、 教師判 断対象データ 1 2は、 より具体的には、 種々の症例に対する I、 〇丁お よびエコー画像などの医療画像または動画、 ならびに心電図や呼吸音などの バイタル信号等のデータであってよい。 この場合、 教師判断結果データ 1 4 は上記データを元に医師が判断した疾患名で あってよい。 学習装置 1 〇〇は 、 上記の教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習 する第 1の機械学習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教師判断根拠データ 1 6は、 上記データに対する医師の所見を判断根拠と し て含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習を行い、 \¥0 2020/175692 7 卩(:171? 2020 /008473

根拠推論モデル 3 2を生成してよい。 その結果、 本実施形態に係る判断装置 は、 〇丁およびエコー画像などの医療画像または 動画、 ならびに心 電図や呼吸音などのバイタル信号等の判断対 象データに対して、 判断結果と して当該判断推論モデル 2 2に基づいて疾患名を出力し、 当該根拠推論モデ ル 3 2に基づいてその判断根拠となった所見を出 してよい。 医師は、 これ らの情報を元に、 最終的判断を行う。 これにより、 医師による疾患の見落と しと、 判断装置の誤判断を同時に防ぐことができる 。

[0028] また、 教師判断対象データ 1 2は、 人事データであってもよい。 教師判断 対象データ 1 2が人事データである場合、 教師判断対象データ 1 2は、 より 具体的には従業員プロファイルであってよい 。 この場合、 教師判断結果デー 夕 1 4は当該従業員の所定の活動領域 (研究開発/営業など) におけるパフ ォーマンスを含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断 対象データ 1 2と教師判断結果データ 1 4との関係を学習する第 1の機械学 習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教師判断根拠デー 夕 1 6は上記従業員がパフォーマンスを発揮した 拠 (理由) を含むデータ であってよい。 学習装置 1 0 0は、 上記の教師判断対象データ 1 2と教師判 断根拠データ 1 6との関係を学習する第 2の機械学習を行い、 根拠推論モデ ル 3 2を生成してよい。 その結果、 本実施形態に係る判断装置は、 従業員プ ロファイル等の人事データに対して、 判断結果として当該判断推論モデル 2 2に基づいて採用対象者に期待されるパフォ マンスを出力し、 当該根拠推 論モデル 3 2に基づいてその判断根拠となったパフォー ンスを発揮する根 拠を出力してよい。 このように、 本実施形態に係る学習装置および判断装置 を企業における採用活動や人事評価に利用す ることができる。

[0029] また、 教師判断対象データ 1 2は、 工場における設備点検に関するデータ であってもよい。 教師判断対象データ 1 2が設備点検に関するデータである 場合、 教師判断対象データ 1 2は、 より具体的には工場における設備点検対 象物の画像や動作音のデータであってよい。 この場合、 教師判断結果データ 1 4は、 当該設備点検対象物に対する熟練者の点検結 果 (要交換、 要詳細点 \¥0 2020/175692 8 卩(:171? 2020 /008473

検、 重篤な問題なしなど) を含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習す る第 1の機械学習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教 師判断根拠データ 1 6は上記設備点検対象物のデータに対する熟 者の判断 根拠を含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象デ —夕 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習を行 い、 根拠推論モデル 3 2を生成してよい。 その結果、 本実施形態に係る判断 装置は、 点検対象物の画像や動作音等の判断対象デー タに対して、 判断結果 として当該判断推論モデル 2 2に基づいて当該点検対象物の点検結果を出 し、 当該根拠推論モデル 3 2に基づいてその判断根拠を出力してよい。 これ により、 本実施形態に係る学習装置および判断装置を 工場における設備点検 に利用することができる。

[0030] 第 1の機械学習および第 2の機械学習のそれぞれには、 公知のアルゴリズ ムを用いることができる。 公知のアルゴリズムとしては、 例えば、 ニューラ ルネッ トワーク、 ランダムフォレスト、 勾配ブースティング、 リッジ回帰、 ラッソ回帰、 ロジスティック回帰、 および、 サボートべクタマシン (3 1\/1 ) などを挙げることができる。 ニューラルネッ トワークは、 畳み込み型、 リ カレント型またはタイムディレイ型などの型 式であってよい。 また、 判断推 論モデル 2 2および根拠推論モデル 3 2は、 それぞれ入カデータに対する分 類結果および分類結果の根拠を出力してもよ いし、 それぞれ入カデータに対 する回帰結果および回帰結果の根拠を出力し てもよい。

[0031 ] 図 2は、 第 1の機械学習 6 0および第 2の機械学習 7 0の一例を模式的に 示す図である。 判断推論モデル 2 2は、 複数の層 2 3を有する。 それぞれの 層 2 3は、 複数のノード 2 4を有する。 それぞれのノード 2 4は、 入力され たパラメータに対して所定の演算を行う。 判断推論モデル 2 2は、 複数の層 2 3における複数のノード 2 4の所定の演算結果に基づいて、 判断推論デー 夕 2 6を出力する。 学習装置 1 0 0は、 判断推論データ 2 6を教師判断結果 データ 1 4と比較して、 第 1の誤差口 1 を算出する。 \¥0 2020/175692 9 卩(:171? 2020 /008473

[0032] 本明細書においては、 図 2において教師判断対象データ 1 2が入力される 側を前段側とし、 判断推論データ 2 6が出力される側を後段側とする。 判断 推論モデル 2 2は、 前段側から後段側まで、 複数の層 2 3を連続的に有して よい。 一の層 2 3に属する複数のノード 2 4における演算結果は、 他の層 2 3に属する複数のノード 2 4にそれぞれ入力されてよい。 当該他の層 2 3は 、 当該一の層 2 3の後段側の層であってよい。

[0033] 図 2に示される判断推論モデル 2 2は、 一例として 3つの層 2 3を有し、

3つの層 2 3のそれぞれが 4つのノード 2 4を有する。 本例の判断推論モデ ル 2 2は、 前段側から後段側まで、 層 2 3— 1、 層 2 3— 2および層 2 3— 3を連続的に有する。 層 2 3— 1は 4つのノード 2 4— 1 を有し、 層 2 3— 2は 4つのノード 2 4— 2を有し、 層 2 3— 3は 4つのノード 2 4— 3を有 する。 図 2において、 4つのノード 2 4 _ 1 を八 1 ~八4、 4つのノード 2 4— 2 を巳 1 ~巳4、 4つのノード 2 4— 3を〇 1 ~〇4と、 それぞれ示し ている。

[0034] 4つのノード 2 4 - 1は、 それぞれX 1〜X 6で示される 6つの教師判断 対象データ 1 2に対して所定の演算を行い、 その演算結果を 4つのノード 2 4— 2に出力する。 図 2においては、 X 1から八 1 ~八4への矢印のみ示し ており、 X 2〜X 6から八 1 ~八4への矢印を省略している。 4つのノード 2 4 - 1は、 それぞれ 6つの教師判断対象データ 1 2に対して所定の重み付 けをして演算を行ってもよい。

[0035] 4つのノード 2 4— 2は、 4つのノード 2 4— 1からの出力に対して所定 の演算を行い、 その演算結果を 4つのノード 2 4— 3に出力する。 図 2にお いては、 への矢印のみ示しており、 八2 ~八4から巳 1 ~巳 4への矢印を省略している。 4つのノード 2 4— 2は、 それぞれ 4つの ノード 2 4— 1からの出力に対して所定の重み付けをして 算を行ってもよ い。

[0036] 4つのノード 2 4— 3は、 4つのノード 2 4— 2からの出力に対して所定 の演算を行い、 その演算結果を出力する。 図 2においては、 巳 1から〇 1 ~ \¥0 2020/175692 10 卩(:171? 2020 /008473

〇 4への矢印のみ示しており、 巳 2〜巳4から〇 1〜〇 4への矢印を省略し ている。 4つのノード 2 4— 3は、 それぞれ 4つのノード 2 4— 2からの出 力に対して所定の重み付けをして演算を行っ てもよい。

[0037] される 3つの判断推論データ 2 6は、 4つのノード 2 4—

3からの出力に対して所定の演算を行い、 生成される。 図 2においては、 〇 1から 1 ~ 3への矢印のみ示しており、

矢印を省略している。 3つの判断推論データ 2 6は、 それぞれ 4つのノード 2 4— 3からの出力に対して所定の重み付けをして 算を行ってもよい。

[0038] 学習装置 1 0 0は、 をそれぞれ丁 1 〜丁3で示される 3つの教師判断結果データ 1 4と比較する。 学習装置 1 0 0は、 をそれぞれ丁 1 ~丁 3と比較し、 第 1の誤差口 1 を算出す る。

[0039] 根拠推論モデル 3 2は、 複数の層 3 3を有する。 それぞれの層 3 3は、 複 数のノード 3 4を有する。 それぞれのノード 3 4は、 入力されたパラメータ に対して所定の演算を行う。 根拠推論モデル 3 2は、 複数の層 3 3における 複数のノード 3 4の所定の演算結果に基づいて、 根拠推論データ 3 6を出力 する。 学習装置 1 〇〇は、 根拠推論データ 3 6を教師判断根拠データ 1 6と 比較して、 第 2の誤差 0 2を算出する。

[0040] 本明細書においては、 図 2において教師判断対象データ 1 2が入力される 側を前段側とし、 根拠推論データ 3 6が出力される側を後段側とする。 根拠 推論モデル 3 2は、 前段側から後段側まで、 複数の層 3 3を連続的に有して よい。 一の層 3 3に属する複数のノード 3 4における演算結果は、 他の層 3 3に属する複数のノード 3 4にそれぞれ入力されてよい。 当該他の層 3 3は 、 当該一の層 3 3の後段側の層であってよい。

[0041 ] 図 2に示される根拠推論モデル 3 2は、 一例として教師判断対象データ 1

2が入力される側から 3つの層 3 3を有し、 3つの層 3 3のそれぞれが 4つ のノード 3 4を有する。 本例の根拠推論モデル 3 2は、 前段側から後段側ま で、 層 3 3— 1、 層 3 3— 2および層 3 3— 3を連続的に有する。 層 3 3— \¥02020/175692 11 卩(:171? 2020 /008473

1は 4つのノード 34— 1 を有し、 層 33— 2は 4つのノード 34— 2を有 し、 層 33— 3は 4つのノード 34— 3を有する。 図 2において、 ノード 3 4— 1、 ノード 34— 2およびノード 34— 3を、 それぞれ 匕 1 ~匕4および〇 1 ~〇 4と示している。

[0042] 4つのノード 34- 1は、 それぞれX 1〜X 6で示される 6つの教師判断 対象データ 1 2に対して所定の演算を行い、 その演算結果を 4つのノード 3 4— 2に出力する。 図 2においては、 X 1から 8 1 ~ 84への矢印のみ示し ており、 への矢印を省略している。 4つのノード 34- 1は、 それぞれ 6つの教師判断対象データ 1 2に対して所定の重み付 けをして演算を行ってもよい。

[0043] 4つのノード 34— 2は、 4つのノード 34— 1からの出力に対して所定 の演算を行い、 その演算結果を 4つのノード 34— 3に出力する。 図 2にお いては、 しており、 32~84から 1〇 1 ~匕 4への矢印を省略している。 4つのノード 34— 2は、 それぞれ 4つの ノード 34— 1からの出力に対して所定の重み付けをして 算を行ってもよ い。

[0044] 4つのノード 34— 3は、 4つのノード 34— 2からの出力に対して所定 の演算を行い、 その演算結果を出力する。 図 2においては、 13 1から〇 1 ~ 〇 4への矢印のみ示しており、 62~匕4から〇 1 ~〇 4への矢印を省略し ている。 4つのノード 34— 3は、 それぞれ 4つのノード 34— 2からの出 力に対して所定の重み付けをして演算を行っ てもよい。

[0045] で示される 3つの根拠推論データ 36は、 4つのノード 34-

3からの出力に対して所定の演算を行い、 生成される。 図 2においては、 〇 1から å 1 ~ å 3への矢印のみ示しており、 〇 2~〇 4から å 1 ~å 3への 矢印を省略している。 3つの根拠推論データ 36は、 それぞれ 4つのノード 34— 3からの出力に対して所定の重み付けをして 算を行ってもよい。

[0046] 学習装置 1 00は、 をそれぞれ で示される 3つの教 師判断根拠データ 1 6と比較する。 学習装置 1 00は、 2 1 ~å 3をそれぞ \¥0 2020/175692 12 卩(:171? 2020 /008473 と比較し、 第 2の誤差 0 2を算出する。

[0047] 判断推論モデル 2 2の少なくとも一つのノード 2 4は、 根拠推論モデル 3

2の少なくとも一つのノード 3 4と異なっていてよい。 少なくとも一つのノ -ド 2 4が少なくとも一つのノード 3 4と異なるとは、 根拠推論モデル 3 2 が当該少なくとも一つのノード 2 4を有さず、 判断推論モデル 2 2が当該少 なくとも一つのノード 3 4を有さないことを指す。 本例においては、 判断推 論モデル 2 2の全てのノード 2 4が、 根拠推論モデル 3 2の全てのノード 3 4と異なる。 言い換えると、 本例においては、 判断学習部 2 0および根拠学 習部 3 0は、 それぞれ独立に第 1の機械学習 6 0および第 2の機械学習 7 0 行う。

[0048] なお、 層 2 3の数は 3つより多くてもよい。 層 2 3が有するノード 2 4の 数は、 4つより多くてもよく、 少なくてもよい。 層 2 3— 1、 層 2 3— 2お よび層 2 3 - 3が有するノード 2 4の数は、 それぞれ異なっていてもよい。 同様に、 層 3 3の数は 3つより多くてもよい。 層 3 3が有するノード 3 4の 数は、 4つより多くてもよく、 少なくてもよい。 層 3 3— 1、 層 3 3— 2お よび層 3 3 - 3が有するノード 3 4の数は、 それぞれ異なっていてもよい。 また、 層 2 3の数と層 3 3の数は、 異なっていてもよい。

[0049] 図 3は、 第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図 である。 ステップ 3 1 0 0において、 学習装置 1 0 0は判断推論モデル 2 2 および根拠推論モデル 3 2の初期モデルを呼び出す。 当該初期モデルは、 そ れぞれ記憶部 4 0 _ 1および記憶部 4 0 - 2 (図 1参照) に記憶されていて もよい。

[0050] ステップ 3 1 0 2において、 学習装置 1 0 0は入力部 1 0に教師判断対象 データ 1 2、 教師判断結果データ 1 4および教師判断根拠データ 1 6を入力 する。 判断学習部 2 0は、 教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習する第 1の機械学習 6 0を行う。 根拠学習部 3 0は、 教師 判断根拠データ 1 6と教師判断結果データ 1 4との関係を学習する第 2の機 械学習 7 0を行う。 判断学習部 2 0は、 第 1の機械学習 6 0を行うことによ \¥0 2020/175692 13 卩(:171? 2020 /008473

り判断推論モデル 2 2を生成する。 根拠学習部 3 0は、 第 2の機械学習 7 0 を行うことにより根拠推論モデル 3 2を生成する。

[0051 ] ステップ 3 1 0 4において、 学習装置 1 0 0はモデル誤差を算出する。 モ デル誤差とは、 判断推論モデル 2 2が出力する判断推論データ 2 6と教師判 断結果データ 1 4との第 1の誤差 0 1、 および、 根拠推論モデル 3 2が出力 する根拠推論データ 3 6と教師判断根拠データ 1 6との第 2の誤差 0 2を指 す。

[0052] 第 1の誤差口 1および第 2の誤差 0 2を算出する関数を、 それぞれ第 1誤 差関数チ 1および第 2誤差関数チ 2とする。 学習装置 1 0 0は、 第 1の誤差 口 1 を、 判断推論データ 2 6と教師判断結果データ 1 4とを第 1誤差関数†

1 に入力することにより算出してよい。 学習装置 1 0 0は、 第 2の誤差 0 2 を、 根拠推論データ 3 6と教師判断根拠データ 1 6とを第 2誤差関数チ 2に 入力することにより算出してよい。

[0053] 第 1誤差関数チ 1および第 2誤差関数チ 2は、 平均二乗誤差関数、 平均絶 対誤差関数、 平均二乗対数誤差関数、 交差エントロピー誤差関数、 コネクシ ョニスト時系列分類法を用いた関数、 ヒンジ損失関数、 「関数、 指 数損失関数、 1_ダイバージェンス ( リ I I

〇1 I V 6 「 9 6 11 0 6) 関数、 等の公知の損失関数のいずれかであってよい 。 第 1誤差関数干 1 と第 2誤差関数干 2とは、 同じであってよく、 同じでな くてもよい。

[0054] ステップ 3 1 0 6において、 学習装置 1 0 0は、 第 1の誤差口 1 に基づい てノード 2 4における演算の重み付け係数 (パラメータ) を調整し、 第 2の 誤差に口 2に基づいてノード 3 4における演算の重み付け係数 (パラメータ ) を調整する。 学習装置 1 〇〇は第 1の誤差口 1 に基づいて、 複数の層 2 3 のそれぞれに属するノード 2 4ごとに、 重み付け係数を調整してよい。 また 、 学習装置 1 0 0は第 2の誤差 0 2に基づいて、 複数の層 3 3のそれぞれに 属するノード 3 4ごとに、 重み付け係数を調整してよい。 即ち、 重み付け係 数は、 複数の層 2 3のそれぞれに属するノード 2 4ごとに異なっていてよく \¥0 2020/175692 14 卩(:171? 2020 /008473

、 複数の層 3 3のそれぞれに属するノード 3 4ごとに異なっていてよい。

[0055] 図 2に示される例においては、 学習装置 1 0 0は第1の誤差口 1 に基づい て、 6つの教師判断対象データ 1 2と 4つのノード 2 4 - 1 との間、 4つの ノード 2 4— 1 と 4つのノード 2 4— 2との間、 4つのノード 2 4— 2と 4 つのノード 2 4 _ 3との間、 および、 4つのノード 2 4 _ 3と 3つの判断推 論データ 2 6との間の重み付け係数 (パラメータ) を調整する。 また、 学習 装置 1 0 0は第 2の誤差 0 2に基づいて、 6つの教師判断対象データ 1 2と 4つのノード 3 4— 1 との間、 4つのノード 3 4— 1 と 4つのノード 3 4— 2との間、 4つのノード 3 4 - 2と 4つのノード 3 4 - 3との間、 および、

4つのノード 3 4— 3と 3つの根拠推論データ 3 6との間の重み付け係数 ( パラメータ) を調整する。

[0056] ステップ 3 1 0 8において、 学習装置 1 0 0は判断推論モデル 2 2および 根拠推論モデル 3 2が、 それぞれ第 1の機械学習 6 0および第 2の機械学習 7 0を完了したかどうかを判断する。 学習装置 1 0 0は、 予め定められた第 1の閾値丁 1 と第 1の誤差 0 1 とを比較して、 第 1の機械学習 6 0を完了す るか否かを判断してよい。 学習装置 1 〇〇は、 予め定められた第 2の閾値丁 2と第 2の誤差 0 2とを比較して、 第 2の機械学習 7 0を完了するか否かを 判断してよい。 第 1の閾値丁 1 と第 2の閾値丁 2とは異なっていてよく、 等 しくてもよい。

[0057] 第 1の誤差 0 1が第 1の閾値丁 1 よりも大きい場合、 学習装置 1 0 0はス テップ3 1 0 2に戻り、 入力部 1 0に教師判断対象データ 1 2および教師判 断結果データ 1 4を入力する。 第 2の誤差 0 2が第 2の閾値丁 2よりも大き い場合、 学習装置 1 0 0はステップ 3 1 0 2に戻り、 入力部 1 0に教師判断 対象データ 1 2および教師判断根拠データ 1 6を入力する。

[0058] 学習装置 1 0 0は、 ステップ 3 1 0 8からステップ 3 1 0 2に戻るごとに 、 異なる教師判断対象データ 1 2、 異なる教師判断結果データ 1 4および異 なる教師判断根拠データ 1 6を入力部 1 0に入力してよい。 ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返すごとに、 判断学習部 2 0が第 1の \¥0 2020/175692 15 卩(:171? 2020 /008473

機械学習 6 0を繰り返し、 根拠学習部 3 0が第 2の機械学習 7 0を繰り返す ので、 判断推論モデル 2 2および根拠推論モデル 3 2の精度が向上する。 こ のため、 判断推論モデル 2 2および根拠推論モデル 3 2は、 判断対象データ に対して精度の高い判断結果および判断結果 の根拠をそれぞれ出力できる。

[0059] ステップ3 1 0 2〜ステップ3 1 0 8のループを繰り返して第 1の誤差口

1が第 1の閾値丁 1 よりも小さくなった場合、 学習装置 1 0 0は第1の機械 学習 6 0を完了してステップ 3 1 1 0に進む。 同様に、 ステップ 3 1 0 2〜 ステップ 3 1 0 8のループを繰り返して第 2の誤差 0 2が第 2の閾値丁 2よ りも小さくなった場合、 学習装置 1 〇〇は第 2の機械学習 7 0を完了してス テップ3 1 1 0に進む。 ステップ 3 1 1 0において、 学習装置 1 0 0は判断 推論モデル 2 2および根拠推論モデル 3 2を、 それぞれ記憶部 4 0 _ 1およ び記憶部 4 0 - 2に保存してよい。

[0060] 判断学習部 2 0は、 第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小 さくする第 1の機械学習 6 0を行ってよい。 根拠学習部 3 0は、 第 1の機械 学習 6 0とは独立して第 2の誤差口 2を小さくする第 2の機械学習 7 0を行 ってよい。 即ち、 判断学習部 2 0は根拠推論データ 3 6の影響を受けずに第 1の機械学習 6 0を行ってよく、 根拠学習部 3 0は判断推論データ 2 6の影 響を受けずに第 2の機械学習 7 0を行ってよい。

[0061 ] 学習装置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行し て行ってよい。 学習装置 1 0 0は、 第 1の機械学習 6 0を行った後に第 2の 機械学習 7 0を行ってもよく、 第 2の機械学習 7 0を行った後に第 1の機械 学習 6 0を行ってもよい。

[0062] 図 4は、 本発明の一つの実施形態に係る学習装置 1 0 0の他の一例を示す 図である。 本例の学習装置 1 0 0は、 判断学習部 2 0における第 1の機械学 習 6 0の学習結果が根拠学習部 3 0にフィードバックされ、 根拠学習部 3 0 における第 2の機械学習 7 0の学習結果が判断学習部 2 0にフィードバック される点で、 図 1の学習装置 1 0 0と異なる。

[0063] 図 5は、 図 4の例における第 1の機械学習 6 0および第 2の機械学習 7 0 \¥0 2020/175692 16 卩(:171? 2020 /008473

の一例を模式的に示す図である。 本例において、 学習装置 1 〇〇は教師判断 結果データ 1 4と判断推論データ 2 6との第 1の誤差口 1 と、 教師判断根拠 データ 1 6と根拠推論データ 3 6との第 2の誤差 0 2に基づいて、 第 1の機 械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行う。 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 1の機械学習 6 0および第 2の機械学習 7 0の両方を行ってもよい。

[0064] 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて第 1の 機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行うことで、 判 断推論モデル 2 2の学習に根拠推論モデル 3 2の学習結果を反映させること ができる。 その結果、 判断学習部 2 0は、 判断推論モデル 2 2と根拠推論モ デル 3 2とを独立に学習させた場合と比較して、 教師判断結果データ 1 4と 教師判断根拠データ 1 6との隠された関係を反映した判断推論モデ 2 2を 構築することができる。

[0065] 学習装置 1 0 0は、 第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小 さくする第 1の機械学習 6 0を行った後に、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 1の機械学習 6 0を行ってもよい。 これにより、 学習装 置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行して行う場 合よりも、 第 1の機械学習 6 0を早く収束させることができる。

[0066] 学習装置 1 0 0は、 第 1の機械学習 6 0とは独立して第 2の誤差 0 2を小 さくする第 2の機械学習 7 0を行った後に、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 2の機械学習 7 0を行ってもよい。 これにより、 学習装 置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行して行う場 合よりも、 第 2の機械学習 7 0を早く収束させることができる。

[0067] 学習装置 1 0 0は、 ノード 8 0において第 1の誤差 0 1 と第 2の誤差 0 2 に所定の演算を行ってよい。 所定の演算には、 第 1の誤差口 1 と第 2の誤差 口 2との和、 第 1の誤差 0 1 と第 2の誤差 0 2との平均、 および、 第 1の誤 差口 1 と第 2の誤差 0 2との加重平均が含まれてよい。 学習装置 1 0 0は、 ノード 8 0において第 1の誤差口 1 と第 2の誤差 0 2とに所定の演算を行っ \¥0 2020/175692 17 卩(:171? 2020 /008473

た結果に基づいて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少なく とも一方を行ってよい。 第 1の誤差口 1および第 2の誤差 0 2に所定の演算 を行った結果は、 複数のノード 2 4のいずれかにフイードバックされてよく 、 複数のノード 3 4のいずれかにフイードバックされてよい。 図 5の例にお いては、 第 1の誤差口 1および第 2の誤差 0 2に所定の演算を行った結果は 、 ノード 2 4— 1〜ノード 2 4— 3のいずれかにフイードバックされてよく 、 ノード 3 4— 1〜ノード 3 4— 3のいずれかにフイードバックされてよい

[0068] 図 6は、 図 4および図 5の例における第 1の機械学習 6 0および第 2の機 械学習 7 0のフローを示す図である。 図 6のフローは、 図 3のステップ 3 1 0 4とステップ 3 1 0 6の間に評価用誤差を算出するステップ 3 1 0 5をさ らに有する点で、 図 3のフローと異なる。 ステップ 3 1 0 5以外の学習装置 1 0 0の動作は、 図 3における各ステップと同じである。

[0069] ステップ 3 1 0 4において、 学習装置 1 0 0はモデル誤差を算出する。 モ デル誤差とは、 判断推論モデル 2 2が出力する判断推論データ 2 6と教師判 断結果データ 1 4との誤差 0 1 (第 1の誤差口 1) 、 および、 根拠推論モデ ル 3 2が出力する根拠推論データ 3 6と教師判断根拠データ 1 6との誤差 0 2 (第 2の誤差 0 2) を指す。

[0070] ステップ3 1 0 5において、 学習装置 1 0 0はモデル誤差から評価用誤差 口を算出する。 評価用誤差口とは、 学習装置 1 0 0がモデル誤差に所定の演 算を行った誤差を指す。

[0071 ] 学習装置 1 0 0は、 第 1の誤差口 1および第 2の誤差 0 2を用いて合成誤 差を算出してよい。 当該合成誤差を、 合成誤差 IV! 0とする。 学習装置 1 0 0 は、 合成誤差 IV! 0に基づいて第 1の機械学習 6 0または第 2の機械学習 7 0 を行ってよい。 合成誤差 第 1の誤差口 1 と第 2の誤差 0 2との和で あってもよい。 学習装置 1 〇〇は、 合成誤差 として第 1の誤差 0 1 と第 2の誤差 0 2との和を用いて、 当該合成誤差 IV! 0が最小になるように、 第 1 の機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってもよい \¥0 2020/175692 18 卩(:171? 2020 /008473

。 即ち、 学習装置 1 〇〇は評価用誤差口 (合成誤差 を第 1の誤差口 1 と第 2の誤差 0 2との和とし、 当該評価用誤差口が最小になるように第 1の 機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってよい。 学 習装置 1 0 0は、 ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返す 毎にステップ 3 1 0 5において当該評価用誤差〇を算出し、 当該評価用誤差 口が最小になるまでステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返 してよい。

[0072] 本例の学習装置 1 0 0は、 評価用誤差口が最小になるまで第 1の機械学習

6 0および第 2の機械学習 7 0を繰り返すので、 判断推論モデル 2 2および 根拠推論モデル 3 2の精度が向上する。 このため、 判断推論モデル 2 2およ び根拠推論モデル 3 2は、 判断対象データに対して精度の高い判断結果 およ び判断結果の根拠をそれぞれ出力できる。

[0073] 学習装置 1 0 0は、 合成誤差 IV! 0として第 1の誤差 0 1 と第 2の誤差 0 2 との重み付けを異ならせて、 第 1の機械学習 6 0および第 2の機械学習 7 0 の少なくとも一方を行ってよい。 即ち、 学習装置 1 0 0は第 1の誤差口 1 と 第 2の誤差 0 2との重み付けを異ならせて算出された合成 差 を評価用 誤差口として用いて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少な くとも一方を行ってよい。 当該評価用誤差口は、 第 1の誤差口 1 と第 2の誤 差口 2との加重平均であってよい。 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2との重み付けを異ならせた評価用誤差 0を用いて第 1の機械学 習 6 0または第 2の機械学習 7 0を行うことにより、 判断結果および判断結 果の根拠のうち、 どちらの精度を重視して学習するかを調整す ることができ る。

[0074] 学習装置 1 0 0は、 合成誤差 IV! 0における第 1の誤差 0 1 と第 2の誤差 0

2との重み付けを、 調整可能であってよい。 学習装置 1 0 0は、 予め定めら れたステップ回数ごとに当該重み付けを変更 した合成誤差 IV! 0を用いて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってもよ い。 例えば、 第 1の機械学習 6 0を行う場合に、 学習装置 1 0 0は、 当初は \¥0 2020/175692 19 卩(:171? 2020 /008473

合成誤差 IV! 0における一方の誤差 (例えば、 第 1の誤差口 1) の重み付けを 大きく して第 1の機械学習 6 0を行い、 ステップ回数が進むごとに他方の誤 差 (例えば、 第 2の誤差 0 2) の重み付けを大きく して第 1の機械学習 6 0 を行ってもよい。 これにより、 学習装置 1 0 0は、 第 1の機械学習 6 0の収 束速度と、 生成される判断推論モデル 2 2の精度とのバランスを取ることが できる。 この場合、 学習装置 1 0 0は、 第 1の機械学習 6 0の収束状況に応 じて当該重み付けを調整してもよい。 また、 第 2の機械学習 7 0を行う場合 に、 学習装置 1 〇〇は、 当初は合成誤差 IV! 0における一方の誤差 (例えば、 第 2の誤差 0 2) の重み付けを大きく して第 2の機械学習 7 0を行い、 ステ ップ回数が進むごとに他方の誤差 (例えば、 第 1の誤差口 1) の重み付けを 大きく して第 2の機械学習 7 0を行ってもよい。 これにより、 学習装置 1 0 0は、 第 2の機械学習 7 0の収束速度と、 生成される判断根拠モデル 3 2の 精度とのバランスを取ることができる。 この場合、 学習装置 1 0 0は、 第 2 の機械学習 7 0の収束状況に応じて当該重み付けを調整し もよい。

[0075] ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返す場合において、 判断学習部 2 0が第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小さく する第 1の機械学習 6 0を行い、 根拠学習部 3 0が第 1の機械学習 6 0とは 独立して第 2の誤差 0 2を小さくする第 2の機械学習 7 0を行った後、 判断 学習部 2 0および根拠学習部 3 0は第 1の誤差口 1 と第 2の誤差 0 2の和が 最小になるように、 それぞれ第 1の機械学習 6 0および第 2の機械学習 7 0 を行ってもよい。 即ち、 学習装置 1 0 0は図 3におけるステップ 3 1 0 2〜 ステップ 3 1 0 8のループを所定回数繰り返した後、 図 6におけるステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返してもよい。 また、 学習装置 1 0 0は図 6におけるステップ3 1 0 2〜ステップ3 1 0 8のループを所定 回数繰り返した後、 図 3におけるステップ 3 1 0 2〜ステップ 3 1 0 8のル —プを繰り返してもよい。 学習装置 1 〇〇は、 図 3のループと図 6のループ を交互に複数回繰り返してもよい。

[0076] 図 7は、 第 1の機械学習 6 0および第 2の機械学習 7 0の他の一例を模式 \¥0 2020/175692 20 卩(:171? 2020 /008473

的に示す図である。 判断推論モデル 2 2は、 根拠推論モデル 3 2の少なくと も一つのノード 3 4を含んでよい。 また、 根拠推論モデル 3 2は、 判断推論 モデル 2 2の少なくとも一つのノード 2 4を含んでよい。

[0077] 図 7に示される例においては、 4つのノード 2 4 _ 1はそれぞれ X 1 ~乂

6で示される 6つの教師判断対象データ 1 2に対して所定の重み付けをして 演算を行い、 その演算結果を 4つのノード 2 4— 2および 4つのノード 3 4 - 2に出力する。 4つのノード 2 4 - 2は、 4つのノード 2 4 - 1および 4 つのノード 3 4— 1からの出力に対して所定の重み付けをして 算を行い、 その演算結果を 4つのノード 2 4— 3に出力する。

[0078] 本例においては、 4つのノード 3 4 _ 1はそれぞれ X 1 〜 X 6で示される

6つの教師判断対象データ 1 2に対して所定の重み付けをして演算を行い その演算結果を 4つのノード 3 4— 2および 4つのノード 2 4— 2に出力す る。 4つのノード 3 4 - 2は、 4つのノード 3 4 - 1および 4つのノード 2 4 - 1からの出力に対して所定の重み付けをして 算を行い、 その演算結果 を 4つのノード 3 4— 3に出力する。

[0079] 図 7の例においても、 学習装置 1 0 0は図 3に示されるフロー図に沿って 第 1の機械学習 6 0および第 2の機械学習 7 0を行ってよい。 本例において は、 判断学習部 2 0 (図 1参照) はノード 2 4およびノード 3 4に対して第 1の機械学習 6 0を繰り返し、 根拠学習部 3 0 (図 1参照) はノード 3 4お よびノード 2 4に対して第 2の機械学習 7 0を繰り返す。 このため、 判断推 論モデル 2 2は、 判断対象データに対して根拠推論モデル 3 2の学習結果も 加味した、 精度の高い判断結果を出力できる。 また、 根拠推論モデル 3 2は 、 判断対象データに対して判断推論モデル 2 2の学習結果も加味した、 精度 の高い判断結果の根拠を出力できる。

[0080] 判断推論モデル 2 2は、 根拠推論モデル 3 2における複数のノード 3 4の うち、 前段側のノード 3 4を含んでよい。 根拠推論モデル 3 2は、 判断推論 モデル 2 2における複数のノード 2 4のうち、 前段側のノード 2 4を含んで よい。 図 7の例においては、 判断推論モデル 2 2は判断対象データが入力さ \¥0 2020/175692 21 卩(:171? 2020 /008473

れるノード 3 4 - 1 を含み、 根拠推論モデル 3 2は判断対象データが入力さ れるノード 2 4 _ 1 を含む。 判断推論モデル 2 2が前段側のノード 3 4を含 み、 根拠推論モデル 3 2が前段側のノード 2 4を含むことで、 共通する演算 結果が後段側のノード 2 4およびノード 3 4に入力される。 このため、 学習 装置 1 0 0は、 判断推論データ 2 6と根拠推論データ 3 6との関連性を強く できる。

[0081 ] 図 8は、 本発明の一つの実施形態に係る判断装置 2 0 0の一例を示す図で ある。 判断装置 2 0 0は、 入力部 1 0、 第 1判断部 4 2および第 2判断部 4 4を備える。 入力部 1 0には、 判断対象データ 1 8が入力される。 入力部 1 〇は、 判断対象データ 1 8を第 1判断部 4 2および第 2判断部 4 4に入力す る。

[0082] 第 1判断部 4 2は、 判断推論モデル 2 2に基づいて判断対象データ 1 8に 対する判断結果 2 8を出力する。 第 2判断部 4 4は、 根拠推論モデル 3 2に 基づいて判断対象データ 1 8に対する判断結果の根拠 3 8を出力する。 判断 推論モデル 2 2は、 第 1の機械学習 6 0を完了した判断学習部 2 0 (図 1参 照) により生成されたモデルであってよい。 根拠推論モデル 3 2は、 第 2の 機械学習 7 0を完了した根拠学習部 3 0 (図 1参照) により生成されたモデ ルであってよい。 即ち、 当該判断推論モデル 2 2および当該根拠推論モデル 3 2は、 それぞれ図 3のフローにおけるステップ 3 1 0 8において丫㊀ 3と 判断されたモデルであってよい。 判断推論モデル 2 2は、 記憶部 4 0— 1 に 保存されていてよい。 根拠推論モデル 3 2は、 記憶部 4 0 _ 2に保存されて いてよい。

[0083] 本例の判断装置 2 0 0は、 教師判断対象データ 1 2と教師判断結果データ

1 4との関係を機械学習することにより生成さ た判断推論モデル 2 2に基 づいて、 判断対象データ 1 8に対する判断結果 2 8を出力する。 また、 本例 の判断装置 2 0 0は、 教師判断対象データ 1 2と教師判断根拠データ 1 6と の関係を機械学習することにより生成された 根拠推論モデル 3 2に基づいて 、 判断対象データ 1 8に対する判断結果の根拠 3 8を出力する。 このため、 \¥0 2020/175692 22 卩(:171? 2020 /008473 根拠推論モデル 3 2は判断結果 2 8に対して利用者が解釈しやすい判断結果 の根拠 3 8を出力できる。

[0084] 図 9は、 判断装置 2 0 0による判断結果 2 8および判断結果の根拠 3 8の 出力の一例を示す図である。 本例において、 判断対象データ 1 8はメロン 1 9である。 判断推論モデル 2 2は、 メロン 1 9の品質を人間等の判断者が判 断した判断結果を機械学習 (第 1の機械学習 6 0) することにより生成され たモデルである。 根拠推論モデル 3 2は、 メロン 1 9の品質を人間等の判断 者が判断した判断結果の根拠を機械学習 (第 2の機械学習 7 0) することに より生成されたモデルである。 当該判断結果には、 人間等の判断者がメロン 1 9の品質を判断した複数の結果が含まれてい 。 判断者が人間である場合 、 当該判断結果には、 人間がメロン 1 9を目視した結果から、 または、 メロ ン 1 9の表面に触れた感覚から、 メロン 1 9の品質を判断した結果が含まれ てよい。 本例においては、 この複数の結果は 「まだ食べ頃ではない」 、 「今 が食べ頃」 および 「もう食べ頃を過ぎている」 の 3つの選択肢を含む。 また 、 当該判断結果の根拠には、 人間等の判断者がメロン 1 9の品質を判断した 複数の根拠が含まれている。 本例においては、 この複数の根拠は、 「ツルが しっかりしている」 、 「ツルがしなびている」 、 「皮は全体的に同じ様子」 および 「皮の一部がみずみずしい」 の 4つの選択肢を含む。

[0085] 判断結果 2 8は、 メロン 1 9の品質が 「まだ食べ頃ではない」 、 「今が食 ベ頃」 および 「もう食べ頃を過ぎている」 のいずれかに該当する確率値を示 してよい。 図 9においては、 判断結果 2 8の確率値をヒストグラムにて示し ている。 判断結果の根拠 3 8は、 メロン 1 9に対する判断結果 2 8の根拠と して、 「ツルがしっかりしている」 、 「ツルがしなびている」 、 「皮は全体 的に同じ様子」 および 「皮の一部がみずみずしい」 のいずれかに該当する確 率値を示してよい。 図 9においては、 判断結果の根拠 3 8の確率値をヒスト グラムにて示している。

[0086] 本例の判断装置 2 0 0は、 判断対象データ 1 8 (メロン 1 9) に対して判 断結果 2 8と判断結果の根拠 3 8の両方を出力できる。 このため、 利用者は \¥0 2020/175692 23 卩(:171? 2020 /008473

判断結果 2 8の妥当性を判断結果の根拠 3 8に基づいて検証しやすくなる。 また、 本例の判断装置 2 0 0は、 判断結果 2 8が提示された利用者に判断結 果の根拠 3 8も合わせて提示できるので、 利用者が判断結果 2 8を解釈しや すくなる。 言い換えると、 判断装置 2 0 0は、 人間等の判断者に判断対象に 関する品質の判断結果とその根拠を尋ねた場 合の回答と同等の回答を出力で きる。 また、 人間等の判断者は、 当該判断者が判断対象データ 1 8 (メロン 1 9) に対して行った判断結果およびその根拠を、 それぞれ判断推論モデル 2 2に基づく判断結果 2 8および根拠推論モデル 3 2に基づく判断結果の根 拠 3 8と比較することにより、 判断対象データ 1 8 (メロン 1 9) に対する 判断を学習できる。

[0087] 図 1 0は、 判断装置 2 0 0の一例を示す図である。 判断装置 2 0 0は、 一 例として〇 II、 メモリおよびインターフエース等を備えるコ ンビユータで ある。

[0088] 判断装置 2 0 0は、 表示部 2 1 0を備えてよい。 図 1 0に、 表示部 2 1 0 の拡大図を太線の矩形領域にて合わせて示し ている。 表示部 2 1 0は、 判断 対象データ表示領域 2 2 0、 判断結果表示領域 2 3 0および判断根拠表示領 域 2 4 0を有してよい。

[0089] 判断対象データ表示領域 2 2 0は、 判断対象データ 1 8を表示する。 本例 においては、 判断対象データ表示領域 2 2 0は判断対象データ 1 8としてメ ロン 1 9の画像を表示している。 判断結果表示領域 2 3 0は、 判断結果 2 8 を表示する。 本例においては、 判断結果表示領域 2 3 0は、 判断推論モデル 2 2が出力したメロン 1 9の品質の判断結果 2 8として 3つの選択肢の確率 値をそれぞれ表示している。 当該 3つの選択肢には、 「まだ食べ頃ではない 」 、 「今が食べ頃」 および 「もう食べ頃を過ぎている」 が含まれている。 判 断根拠表示領域 2 4 0は、 判断結果の根拠 3 8を表示する。 本例においては 、 判断根拠表示領域 2 4 0は、 根拠推論モデル 3 2が出力したメロン 1 9の 品質の判断結果の根拠 3 8として 4つの選択肢の確率値をそれぞれ表示して いる。 当該 4つの選択肢には、 「ツルがしっかりしている」 、 「ツルがしな \¥02020/175692 24 卩(:171? 2020 /008473

びている」 、 「皮は全体的に同じ様子」 および 「皮の一部がみずみずしい」 が含まれている。

[0090] 以上、 本発明を実施の形態を用いて説明したが、 本発明の技術的範囲は上 記実施の形態に記載の範囲には限定されない 。 上記実施の形態に、 多様な変 更または改良を加えることが可能であること が当業者に明らかである。 その 様な変更または改良を加えた形態も本発明の 技術的範囲に含まれ得ることが 、 請求の範囲の記載から明らかである。

[0091] 請求の範囲、 明細書、 および図面中において示した装置、 システム、 プロ グラム、 および方法における動作、 手順、 ステップ、 および段階等の各処理 の実行順序は、 特段 「より前に」 、 「先立って」 等と明示しておらず、 また 、 前の処理の出力を後の処理で用いるのでない 限り、 任意の順序で実現しう ることに留意すべきである。 請求の範囲、 明細書、 および図面中の動作フロ —に関して、 便宜上 「まず、 」 、 「次に、 」 等を用いて説明したとしても、 この順で実施することが必須であることを意 味するものではない。

符号の説明

[0092] 1 0 · · ·入力部、 1 2 · · ·教師判断対象データ、 1 4 · · ·教師判断結 果データ、 1 6 · · ·教師判断根拠データ、 1 8 · · ·判断対象データ、 1 9 メロン、 20 · · 判断学習部、 22 · · 判断推論モデル、 23 層、 24 ノード、 26 判断推論データ、 28 · · 判断 結果、 30 · · ·根拠学習部、 32 · · ·根拠推論モデル、 33 · · 層、 34 ノード、 36 · · 根拠推論データ、 38 · · 判断結果の根拠 . 40 · · ·記憶部、 42 · · 第 1判断部、 44 · · ·第 2判断部、 60 第 1の機械学習、 70 · · 第 2の機械学習、 80 · · ノード、 1 〇〇 学習装置、 200 · · ·判断装置、 2 1 0 · · ·表示部、 220 - 判断対象データ表示領域、 230 判断結果表示領域、 240 - -判断根拠表示領域