【AI】機械学習の偏りを避ける3つの方法

Analytics News(アナリティクスニュース)

【AI】機械学習の偏りを避ける3つの方法

TOPICS 2018年11月8日 11:31

【AI】機械学習の偏りを避ける3つの方法

ビルダーやビジネスリーダーにとって、AIシステムの倫理的行動について監視するプロセスを確立することは重要とされる。

AIを構築する際のバイアスを管理する3つの鍵について解説。

①問題に対する正しい学習モデルを選択

「教師付き学習モデル」と「教師なし学習モデル」には、それぞれ長所と短所がある。

クラスタ化または次元削減を行う「教師なし学習モデル」は、データセットから偏りを知ることができる。管理されたモデルはデータ選択の偏りをよりコントロールできるが、その制御は人間の偏見がプロセスに導入されてしまう可能性がある。

特定状況に最適なモデル特定は、データサイエンティストに要求する必要がある。

②代表的なトレーニングデータセットを選択

トレーニングデータが多様であり、異なるグループを含むことを確認することは不可欠だが、実際のデータが同様にセグメント化されない限り、モデルのセグメンテーションは問題となる。

グループごとに異なるモデルを持つことはお勧めできない。1つのグループのデータが不十分な場合は、トレーニングの重要性を高めるために重み付けを使用できるが、予期せぬ新しい偏見につながる可能性があるため、これは慎重に行う必要がある。

③実データを使用してパフォーマンスを監視

アルゴリズムを構築する際には、実際のアプリケーションを可能な限りシミュレートする必要がある。

実稼働中のアルゴリズムでテストグループを使用するのは賢明ではない。代わりに、可能な限り実際のデータに対する統計的方法の実行が望ましい。

結果の平等性については簡単に証明できるが、スキルのあるデータを意図的に受け入れることも意味する。機会均等を証明することは困難だが、少なくとも道徳的には有効となる。両方のタイプの平等を保証することはしばしば実際には不可能だが、モデルの監督と現実のテストによって最良のショットが得られる状況につながる。

以上、下記URLからの要約
https://techcrunch.com/2018/11/06/3-ways-to-avoid-bias-in-machine-learning/

クリエイティブ・コモンズ・ライセンス
この作品は クリエイティブ・コモンズ 表示 - 非営利 4.0 国際 ライセンスの下に提供されています。

最新TOPICS

【IoT】IoT信頼感レポート---消費者の自家用車IoTに対する懸念、IoTデリバリーチェーン問題点の正確な把握が不可欠(2019年08月27日 10:03)

Dynatrace社が「IoT消費者信頼感報告:エンタープライズクラウド監視の課題」と題するレポートを発表し、消費者はIoTデバイスに対してさまざまな潜在的リスクを感じていることが分かった。 自家用車IoTに対する懸念 消費者の懸念の中で最も明白なのは自家用車であった。 調査対象者の中で85%が...

最新CLOSEUPコラム

関連用語・タグ

無料資料プレゼント

ポストコロナ時代にデータセンターはどう活用すべきか

講演資料を見るには、 プライバシーポリシーに同意して、送付先メールアドレスをご入力しご請求ください。

またご入力いただきました情報は、当該資料の作成・提供企業とも共有させていただき、当社及び各社のサービス、製品、セミナー、イベントなどのご案内に使用させていただきます。

本資料を見るには次の画面でアンケートに回答していただく必要があります。



セミナー講演資料公開中

クラウド翻訳のリスク(学習データに機密情報が使われてしまう)

DX時代のデータ活用とは? DataOpsを知り、メタデータ管理をはじめよう!

Amazon WorkSpaces で解決する、テレワークのセキュリティ問題 ~テレワーク手法の比較/VPN/RDS(リモートデスクトップ)/VDI(デスクトップ仮想化)~

  • 書籍
  • OSSNEWSに広告を掲載しませんか?

facebook

twitter