なぜ米大統領選は、ビッグデータの事例とならなかったのか?

Analytics News(アナリティクスニュース)

なぜ米大統領選は、ビッグデータの事例とならなかったのか?

TOPICS 2016年12月16日 10:00

なぜ米大統領選は、ビッグデータの事例とならなかったのか?

2016年11月の米国大統領選挙は、AIとビッグデータを活用し、その性能をアピールする格好の事例になり得たにもかかわらず、AIを手掛けるメーカーや研究所は沈黙を守った。なぜビッグデータは、アメリカ大統領選挙に太刀打ちできないのか。その理由を探る。

ビッグデータ事例とならなかった理由は、その仕組みにあった。

セイバーメトリクスを応用して将来の結果を予測するアメリカの統計学者であるネイト・シルバーは、ビッグデータを駆使して、2008年合衆国大統領選挙で合衆国50州のうち49州(95%)の、そして2012年には全州(100%)の勝者を正確に予測した。神のごとき的中率を誇ってきたシルバー氏は、今回の事例でも、投票日の10日前の時点でヒラリー・クリントンが勝利する確率を80~85%と予想した。しかし、今回の結果はシルバー氏だけではなく、世界中の多くの人の予想を覆す結果となり、ビッグデータ事例とはならなかった。

有効投票数が億単位(2016年度は1億1943万人)にもなる世界最大の選挙では、投票前の当選者予測もさることながら、選挙当日に刻々と変化するリアルタイム予測こそ重要だ。

またアメリカ大統領選挙の仕組みをよく観察してみると、ビッグデータを構成するその仕組みは極めて複雑であり、投票数の多かった人や、多くの州で勝利した人が、必ずしも大統領選で勝者となれるわけではないということも見えてくる。

現在の米国大統領選の仕組みは、投票のパターンに対して結果(選挙人獲得数)が恐しく敏感であり、加えて、ほんのちょっとした有権者の気まぐれで、選挙結果が簡単に大逆転してしまうものであることが見えてきたのだ。

以上、下記URLからの要約
http://eetimes.jp/ee/articles/1611/29/news026.html

最新TOPICS

【AI】パナソニックのR&D戦略---AI技術者を「5年後には1000人体制」に拡大、新卒採用ではAI特別枠(2017年04月21日 10:03)

パナソニックは、同社グループのR&D戦略について説明した。 【ポイント】 ・AI技術者を「3年後には300人体制」「5年後には1000人体制」に拡大する計画 ・大阪大学と共同講座を開設して、社内のデジタル系技術者を育成 ・新卒採用においては、AIを特別枠として設置し、4月からその1期生が入社している 【テーマ】 ・パナソニックは約100年前にアントレプレナーが起業した ・AI...

関連用語・タグ

ETL(イーティーエル)

  • 用語集

「ETL(Extract Transform Load)」とは、外部の情報源からデータを抽出(Extract)し、データウェアハウスなどで利用しやすい形に変換・加工(Transform)し、データベースに書き出す(Load)までの一連の工程である。これらの処理を支援するツールを「ETLツール」と呼ぶ。

IoT(モノのインターネット:Internet of Things)

「IoT」とは、従来はコンピュータやサーバなどの情報・通信機器だけに接続されていたインターネットを、世の中に存在する様々な物体(モノ)に接続して自動認識や自動制御、遠隔計測などを行う技術。

サイバーフィジカルシステム(Cyber-Physical System)

  • 用語集

これまで「経験と勘」に頼っていた事象を効率化し、より高度な社会を実現するためのサービスおよびシステム。

通信()

  • タグ

AI(artificial intelligence)

  • 用語集

「人工知能(AI)」とは、コンピュータ上などで人工的に人間と同様の知能を実現させようという試み、或いはそのための一連の基礎技術。

イベント情報

  • KSKサイド001
  • OSSNEWSに広告を掲載しませんか?

facebook

twitter