AI is learning when it should and shouldn’t defer to a human - MITテクノロジーレビュー AI is learning when it should and shouldn’t defer to a human MITテクノロジーレビュー (出典:MITテクノロジーレビュー) |
人工知能 (AI acceleratorからのリダイレクト) 2018年3月16日の国際大学GLOCOMの提言によると、課題解決型のAIを活用する事で社会変革に寄与できると分析されている。 2018年8月、Open AIが好奇心を実装しノーゲームスコア、ノーゴール、無報酬で目的なき探索を行うAIを公表。これまでのAIで最も人間らしいという。 2018年9月、MIT 101キロバイト (13,878 語) - 2020年8月29日 (土) 15:46 |
この判断は人間に任せていいか?を予測するAIシステム、MIT
2020.09.01
人間とAIのどちらの判断が正しいのか?を予測するAIシステムをMITが開発した。
両者が協力することで、より正確かつすばやい意思決定が可能になるという。
人間と人工知能(AI)システムが連携すれば、それぞれが単独で行動するよりも
優れた業績が上げられる。そんな研究結果が発表された。
多くの場合、医療診断システムが下す診断は人間の医師がチェックするし、
ソーシャルメディアのコンテンツ・モデレーション(不適切なコンテンツの監視、削除)システムは
人間による審査の前にできるだけのフィルタリングをする。
だが、AIと人間の引継ぎを最適化するように設計されたアルゴリズムはほとんどない。
そうしたアルゴリズムがあれば、AIシステムは人間が実際に最適な判断を下せる場合のみ、
人間に対応を委ねることになるはずだ。
マサチューセッツ工科大学(MIT)コンピューター科学・人工知能研究所(CSAIL)は、
協力する人間の長所や短所に基づいて引き継ぎを最適化するAIシステムを開発した。
このシステムは、2つの独立した機械学習モデルを使用している。
1つは、患者の診断やソーシャルメディアの投稿の削除など、実際の意思決定をするモデルである。
もう1つは、AIと人間のどちらが最適な意思決定ができるかを予測するモデルである。
研究チームが「リジェクター(拒絶者)」と呼ぶ後者のモデルは、実際に人間が下した
意思決定の実績に基づいて、予測モデルを継続的に改善していく。
また、人間の時間的制約や、AIシステムにはアクセスできない患者の個人情報に
医師がアクセスできる場合など、実績以外の要因も考慮に入れることができる。
研究チームは、画像認識やヘイトスピーチの検出などのさまざまなシナリオに基づいて、人間とAIのハイブリッド・アプローチを検証した。
AIシステムは専門家の振る舞いに適応し、専門家の判断が適切な場合にはそれに従った。
それにより、人間とAIのコンビは、以前の人間とAIによるハイブリッド・アプローチよりも、より正確かつすばやい意思決定を下すことができた。
実験はまだ比較的単純なものだが、研究チームはそのようなアプローチが、
最終的には医療分野などでの複雑な判断に適用できると考えている。
例えば、医師が適切な抗生物質を処方できるようサポートするAIシステムについて考えてみよう。
広域抗生物質は非常に効果的だが、使いすぎると抗生物質耐性ができてしまう可能性がある。
一方、狭域抗生物質はそのような問題はないが、効果がある可能性が高い場合にしか利用できない。
AIシステムはこうしたメリットとデメリットを考慮した上で、薬の処方に関して異なる先入観を持つさまざまな医師に対応することを学び、
広域抗生物質の過剰処方や過小処方を是正できるはずだ。
https://www.technologyreview.jp/s/215549/ai-is-learning-when-it-should-and-shouldnt-defer-to-a-human/
【【AI】人間に任せていいのか?『判断するAIシステムが開発される』<MIT>】の続きを読む