« メーカーと小売業、2つのメンタリティの矛盾にゆれるユニクロ | メイン

2017年6月13日 (火)

AIにも直感があるのか?(人間の脳もGoogleのAIも中身はブラックボックス)

  AI(Artificial Intelligence)は日本語にすれば人工知能。これに対して、人間の知能はNI(Natural Intelligence、直訳で自然脳)というそうだ。人間の脳をまねて人工的な知能を創ろうという研究は、1950年代に、現在のコンピュータの原型といえる機械の開発製造が始まるとともにスタートしている。ここで興味深いことは、AIの研究が始まるとともに、人間の認知の仕組みを研究する認知心理学も誕生していることだ。

  それまでの心理学では、脳の仕組みはブラックボックスだとして、どういった刺激を受けたら、どういった反応をとるかといった観察可能な研究をすることが科学的だとされた。行動主義心理学とよばれ、創始者のジョン・ワトソンは、「パブロフの犬」の実験に影響を受けたといわれる(ロシアの生理学者パブロフは、ベルを鳴らしてから犬にエサを与えることを繰り返すと、犬はベルが鳴る音を聞くだけで唾液を出すようになるという実験をした。刺激(ベルの音)への反応(唾液)・・・という条件反射の理論を1903年に発表している)。

  ジョン・ワトソンは一流大学で心理学を教えていたのだが妻がありながら教え子との恋愛沙汰が問題になり辞職せざるをえなくなった。だが、けっこうしたたかな人だったようで、その後、広告代理店J.W. トンプソンの重役として理論を実践に移した。つまり、広告という刺激を与えれば、消費者はどう反応して購買行動を起こすか・・・といった分野で才能を発揮したのだ。彼が手がけたインスタントコーヒーや練り歯磨きの広告はスポンサーの売上増大に貢献し、大学教授のころとは比べものにならないくらいの収入を得て、富を築いたといわれる。

  行動主義は1910年代に注目を集め、その後、40年もの間、心理学の主流となった。

  だが、人間の脳のなかで何が起こっているかを無視した行動主義の考え方に反対する心理学者もいた。彼らは、1950年代に始まったコンピュータや情報科学の考え方の影響を受け、人間の脳も情報システムとみなし、その情報処理過程を明らかにしようとした。これが認知心理学(cognitive psychology)の始まりだ。(ちなみに、囲碁の世界的名人に勝って一躍有名になったAlphaGo/アルファ碁を開発したDeepMind 創立者の一人は認知神経科学で博士号をとっている)

  それ以降、AIと認知心理学の研究は互いに影響を受け合いながら発展してきた。90年代にはfMRI(機能的磁気共鳴映像装置)といった技術の利用が進み、人間が本を読んだり購買決定したりするときの脳内の変化を観察できるようになり、脳への理解はそれ以前とは比べられないくらい深まった。・・・とはいえ、人間の脳の仕組みについては、まだまだ、わからないことばかりだ。

  そういった意味で、AIがNI(Natural Intelligence)を超えるかどうかという最近の議論は、議論すること自体がおかしな話。模倣する対象が未知なのだ。まだわかっていないものを模倣することは無理だろう。大体において、NIは模倣に値する価値があるのだろうか? 後から説明するが、人間の情報処理過程には欠陥が多々ある。欠陥が多々あるゆえに「人間は面白い」とコメントすることもできる。だが、わざわざ欠陥がある情報処理プロセスをAIに備えつける必要もないだろう。

  そういった意味で、AIはNIとは異なる知能として発展していく可能性のほうが高いし、そうすべきだろう。

  たとえば、もっとも複雑なゲームとされる囲碁において、AIが人間に勝ったということで話題になっている。が、人間の情報処理プロセスにある欠陥や弱点を考えると、そういった弱点の少ない機械が勝つのは当前だともいえる。

  ・・・ということで、まず、最初に高次情報処理システムといわれる人間の脳の「認知」の仕組みを説明してみる。そうすれば、いまのコンピュータにはないいくつかの制約がNIにはあることがわかる。

  人間は5つの感覚を通して外界から情報をとりいれる。視覚(目)、聴覚(耳)、嗅覚(鼻)、味覚(口)、皮膚感覚(触覚、圧覚、温覚、冷覚、痛覚を含む)がなければ、外界の情報(刺激)はまったく入ってこない。これは、改めて考えてみると不思議なことだなあ・・・と、私は感慨深く思ってしまうのだが、読者の皆様はどう感じられるのだろうか?  

  いずれにしても、今のところ視覚と聴覚中心のAIに比べると人間には多様なセンサーが備わっている(センサーに関しては、AIのほうに制限があることになる)。

  知覚(perception)というのは、心理学では3つのプロセスに分解される。

  1. <接触>5つの感覚を通して外界からの情報を受け取る
  2. <注意>人間の脳には容量の限界があるために、外界刺激すべてを取り入れてすべての情報を処理をすることは物理的に無理。そのために、どの刺激を情報処理するか選択したり、どのくらいの容量を割り当てるかを決める。無視して脳内に取り入れない情報もあれば、かなり注力する情報もある。
  3. <解釈>刺激の意味をくみ取るために情報を解釈して符号化する(そして記憶する)

  この知覚の3つの段階それぞれにおいて、過去の記憶(経験の記憶+蓄積された知識)が大きな影響を与えている。たとえば、どの刺激に注意を払うかは、過去の記憶情報に基づいて選択する。つまり、自分にとって意味あるものを選択するということだ。無意味だと判断すれば、選択しない。

  ソーシャルメディアはパーソナライゼーション・サービスとして、ユーザーが過去読んだカテゴリーの記事や関連記事だけを選んで送る。結果、ユーザーは自分の好みの記事とか意見にしか接触しないことになる。こういったやり方は、異なる意見を無視し幅広い視野で物事を判断する可能性を狭めることになる。ポピュリズムの風潮を促すことになる、ゆゆしき問題だという議論がある。

  たしかにその通り。だが、上に説明したように、人間の脳もソーシャルメディアがしているような情報操作をしている。知覚過程における情報操作 + ソーシャルメディアのパーソナライゼーション・サービス = 実際には、二重にバイアスがかけられることになる。たしかに、ゆゆしき問題だなあ・・。

  このように、人間の知覚過程における欠陥や弱点は、脳の記憶容量や情報処理のやり方から生まれる (ただし注釈をつければ、自分にとって意味あるものだけを選択することは欠陥といえば欠陥だが、それが、人間一人ひとりの個性をつくっているということもできる。だから「人間は面白い」・・・となる)。

  外界の出来事を五感を通して情報として取り入れ(知覚)、脳の中で情報処理する(考え、学習し、記憶する)。この情報処理過程を「認知 cognition」という。

  この認知の段階で事実をゆがめて把握したり、非論理的な解釈をしたりすることを認知バイアスという。

   認知バイアスのなかには、

  1. 事実をゆがめて把握(脳の容量の問題から、自分に意味あるものだけを取り入れたり、自分独自の解釈をしたりする)
  2. 認知の近道といわれるヒューリスティクス(脳への負荷が少なく意思決定も早くできる)
  3. 感情に影響されて事実をありのままに把握できない・・・などがある。

  二番目のヒューリスティクスについて少し説明をつけ加える。人間の情報処理能力には限界があるため、意思決定に関しては、複雑でなく簡単なヒューリスティクス決定方法を使うことが多い。進化の歴史のなかで、獲得した知識というか要領であり常識と呼ばれることもある。ヒューリスティクスを利用することで、どの選択肢がよいかいちいち比較検討する時間の節約ができる。たとえば、「安かろう悪かろう」や「希少なものは価値がある」「よく知っている企業やブランドは信頼できる」などのように、大方の場合、この判断は正しい。だが、残りわずか100個とか言われて、希少価値を感じてしまい買ってはみたが、使ってみたら、それほどのものではなかったという例も多い。新聞広告を出している会社だから大丈夫だろうと思って投資をしたら、詐欺だったという例もよくある。

  それでも、私たちは無意識のうちにヒューリスティクスな判断をしている。初対面の人を着ている洋服で判断したり、会計士なら生真面目だろうとか職業で性格を判断する。なぜなら、ヒューリスティクスな決定方式なしには、一日24時間あっても足りない。脳は情報処理の多さに機能不全となってしまう。

  ヒューリスティクスな決定のなかには、AIの深層学習で有名になったパターン認識も含まれる。

  人間のパターン認識とは直感や勘ともいわれ、20世紀の名経営者といわれたジャック・ウェルチ(GEの元CEO)は、「私は直感や勘に依存して経営判断を下す」と発言し、ついで、「直感というのはパターン認識をしていることだ。パターン認識というのは、自分の過去の経験を思い出し、その時の経験に基づいて意思決定をする仕組みだ」とも言っている。

  パターン認識というのは記憶から検索された情報と外界からの刺激情報とをマッチングさせるプロセスであり、知覚の対象が特定のパターン(類似性によって抽出された観念)に当てはまるかどうかを認識すること。おおよそあたっていることが多いが、あくまで、記憶の中に存在するテンプレートで最も適合するものを見つけるとか、特徴が似ているということで見つけるわけだから、間違っていることもある。たとえば、経営者が高度成長時代に成功した体験に基づく直感や勘を採用するとして、その場合、過去とは異なった事情や環境にあることを無視しているわけだから、判断ミスを招くことがある。

  パターン認識は「認知プロセスの近道」で、進化の過程で発達した脳の仕組みであり、パターン認識の能力が人類を他の動物種から大きく進歩するのを促したといわれる。だが、自動的、かつ自発的、無意識のうちに実行されるので、自分自身でもどうしてそう判断するのかは説明できない。また、複雑な査定には向かない。ジャック・ウェルチも、パターン認識で判断をするといいながらも次のように付け加えている・・・「直感は非常に重要なデータで、このデータと現在の状況に関するデータを組み合わせればすぐれた判断ができる」。

 人間のパターン認識と機械のパターン認識とを比較するために、将棋の例を考えてみる。

  将棋士たちは幼いころから数えきれない対局を通してコマを盤に並べる膨大な数のパターンを記憶しているはずだ。無意識のうちに、記憶しているパターンと比較して、形勢の不利有利を判断し、羽生善治名人がいうところの「(妙手)をなんとなく思いつく」。

 これが、将棋士の直感というものであろうと考えた理化学研究所は、日本将棋連盟の協力を得て、富士通、富士通研究所と共同で2007年から、将棋士の直感について研究している。最近では、脳のどの部分が活性化しているかをチェックできるfMRI(機能的磁気共鳴映像装置)を使った実験で、大脳基底核が直感の創出に大きく関与していることがわかったと、神経科学のジャーナルに発表している。

  記事によると、アマチュアとプロが次の一手を考えているときに、脳のどの部位が活性化するかをチェックしたところ、アマチュアが考えているときには考えていることを意識しており大脳皮質が活性化したが、プロの場合は無意識で大脳基底核の尾状核が活性化していたという。

  大脳基底核は進化的にはもっとも古い脳に属し、3億年前には地球上に登場したとされる爬虫類の脳にはすでに存在していた。1億年前に登場した小型哺乳類になって発達した大脳皮質と比べれば、かなり古い。だが、この大脳基底核と大脳皮質とはさまざまな神経経路でつながっており、最近では、尾状核が記憶や学習に深い関係があるらしいと推測されている。

  直感を養うためには長期間にわたる訓練と経験が必要だといわれる。プロ棋士の多くは子供のころから将棋のトレーニングを毎日3~4時間、約10年間にわたって受けている。その結果、論理的思考をつかさどる大脳皮質の部位と尾状核との神経経路が構築され強化され、それが、プロの将棋士の直感力につながっているのではと考えられている。

  だからといって、人間の脳の直感の仕組みがわかったわけでもない。仮説があるだけだ。だから、これから説明するAIの直感とNIの直感とはどう違うのか?という話などできるわけでもない。

  でも、してみる。

  AIにもいろいろあって、eコマースやソーシャルメディアに使われている対話型のチャットボットはAI搭載と銘打っていても、ルールデータベースシステムが使われていることが多い。これは、あくまで人間が考えたシナリオに従って、もしこういうような質問をされたら、こう返事しろと・・・とプログラムしているだけだ。機械自らが考えて判断しているという意味では、本当のAIではない。

  AmazonのAIスピーカーAlexaやAppleのIPhoneのSiriなどは、音声認識に機械学習の深層学習をつかっているので、質問を判別する比率は高くなっている(判別するだけで意味を理解しているわけではない)。答えも、クラウドデータベースが後ろにあるため、言葉のやりとりの組み合わせの種類が膨大になっても取り扱える。会話が不自然さを感じさせないようになる。まるで、本当にAlexaやSiriが考えて判断しているように思える。だから、表面的にはIntelligentであるように(知性があるように)思える・・・だけだ。

  機械が自分で考え判断しているという意味では、やっぱり、Googleの子会社DeepMindの囲碁に特化したAI「AlphaGo」の例を挙げなくてはいけないだろう。世界のトップクラスの囲碁名人に勝利して話題になり、ニューラルネットワークの機械学習、そのなかでも深層学習(Deep Learning)が一般的にも使われる言葉となった。

 ニューラルネットワークの機械学習は新しいものではない。研究は、1940年代ごろから始まっている。

 人間の脳の中には多数のニューロン(neuron 神経細胞)が存在しており、各ニューロンは,多数の他のニューロンから信号を受け取り,また,他の多数のニューロンへ信号を受け渡している。信号の受け渡しが常に行われる場合、神経同士の結合が強化され神経経路が構築される。脳は,この信号の流れによって,様々な情報処理を行っているわけだが、この仕組みをコンピュータ内に実現しようとしたものがニューラルネットワーク(neural network)だ。ただ、研究が始まった年代にはコンピュータの性能が低すぎた。

  機械学習(machine learning)とAIとは、ほとんど同義語のように使われているが、あくまでAIというかニューラルネットワークの考え方やアルゴリズムのひとつ。子供が体験や教科書から学んでいくように、コンピュータがデータから学習していき、その結果を一般化(モデル化)する。たとえば、不動産の価格を予測したい場合、過去10年とか5年の物件に関するデータ(大きさ、部屋の数、トイレの数、その他詳細なデータ)とその物件の売価を入力して学習させる。学習の結果、ある物件の詳細データを入力すれば、その物件の価格を予測して出力してくれる。これを「教師つき学習」という。

 ディープラーニング(deep learning 深層学習)は、従来の機械学習よりも、より多くの神経細胞や神経細胞結合を実現したものだ(たとえばAlphaGoのニューラルネットワークは13層になっている)。

 人間の認知活動におけるパターン認識を模倣実現することが可能になったのは、

  1. コンピュータのパワーの発展・・・90年代半ばから2010年ごろにかけ、並列処理コンピューティングや分散処理コンピューティングの登場により、膨大なデータを従来よりもコスト安にかつ迅速に分析できるようになった。とはいえ・・・人間の脳は分散並列処理で、1000億のニューロンの一つ一つが1000から10000個のニューロンとつながっている。そして、fMRIで観察すると、脳内の多くのニューロンや神経経路が同時に活性化してタスクを実行している。そのせいで、どの部位がどういった役割をしているのか判断するのがむづかしいくらいだ。大規模なニューラルネットワークは、数十あるいは数百の複雑に相互につながっている層に配置された数千の疑似ニューロンをもつとはいえ、人間の脳とはまだまだ次元が違う。
  2. ビッグデータの登場・・・膨大なデータで学習できる。その点において、GoogleやFacebookのような継続的に新しいデータが収集できるビジネスをしている企業は、IBMのようなビッグデータを収集する仕組みのない企業に対して、AIの研究・育成において大きく優位に立つことができる。
  3. もちろん、テクノロジーの進歩もある。ニューラルネットワークにおいてニューロン(神経細胞)の層や数を増やすことによって深層学習が可能になったことや、また、機械学習に強化学習を採用するようになったことも重要な進歩だ。強化学習ではコンピュータがあるタスクを繰り返し実行し、どの決定が最大の報酬をもたらしたかを記憶することで、どの決定が優れているかを自ら学習していくことが可能になる。強化学習は、最初に書いた行動心理学からアイデアを得ている。犬はご褒美がもらえるから芸をする。どの芸がより大きなご褒美をもたらすか学習するから、よりむずかしい芸をマスターするようになる。機械も同じで、どの選択判断が最大の報酬をもたらすかを学習すれば、行動の選択肢と報酬をチェックすることで、みずから意思決定(選択)することができるようになる。

  ここで、世界でトップクラスの囲碁名人に勝ったAlphaGoの仕組みをチェックしながら、深層学習とか強化学習がどう活用されたかまとめてみる。

  AlphaGoはGoogleが2014年に買収した英国のDeepMindが開発した。2016年3月に世界一の囲碁棋士といわれる韓国の李 世乭(イ・セドル)9段に4対1で勝っている。そして、つい最近、2017年5月25日に世界最強とされる中国の柯潔(カ・ケツ)9段にも勝利を収めた(で、イ・セドルとカ・ケツと、どっちが世界最強なの?)

  最初にAlphaGoの学習の仕方を説明する。

  1. まず、プロの棋士が実際に試合した16万件の囲碁データベースからの3000万種類の手が、AlphaGoのニューラルネットワークに入力され、教師つき学習をする。
  2. その後、AlphaGoは自分とは少し異なるバージョンのニューラルネットワークと繰り返し数百万回の試合をした。そのさい、AlphaGoは、強化学習手法によって、各試合ごとに自分にとって最大の報酬(この場合は、盤上で最大の陣地を獲得することができた手、つまり勝利をもたらした手)を記憶していった。それによって、AlphaGoは自分独自のレパートリーを獲得することができるようになった。
  3. 次いで、AlphaGo対AlphaGoの試合で使われた手をもう一つのニューラルネットワークに入力し、一手一手が最終的に勝利をもたらすかどうか、その確率を予測するように訓練させた。この時使われた手法はモンテカルロ木探索で、勝利する確率を計算した。人間ではない機械による数百万の手を二番目のニューラルネットワークに入力して、結果を予測するように訓練したわけで、これが直感を可能にしたと開発者は考えている。
  4. つまり、二つのニューラルネットワークがいっしょになって、局面ごとに手の最適化をする。一つのニューラルは、その局面でベストな選択肢の数を狭める。ついで、もう一つのニューラルが、各選択肢がもたらす終局での勝率を計算をする。このとき、使うのがモンテカルロ木探索手法だ。各選択肢が最終的にどのような結果をもたらすかを、すべの枝(可能性)をたどって計算することはコンピュータでも天文学的な時間がかかるので無理(打つ手の選択肢の多い囲碁のゲームの木の枝の総数は10の360乗、将棋は10の220乗、チェスは10の120乗。だから、AIは最初にチェスで人間に勝利をおさめ、次いで将棋、最後に囲碁で勝利した)。それで、可能性が高い枝をいくつかほとんど無作為に選んで、最終的結果の勝率を計算。その結果で、各選択肢に重みをつけ、ベストな選択肢(打つ手)を決定する。

  この学習の仕方をみても、AlphaGoが人間のプロの名人に勝利を収めることは当然であることがわかるだろう。いくら幼いころから将棋をうち、多くの経験をしているといっても(そして、むろん、過去の名勝負の手についても勉強して知識としてもっていても)、16万件の試合のなかの3000万種の手を記憶することはできないだろう。人間の脳はそこまで容量がない。

  AlphaGoにしても、名人に勝ったとされる他のAIにしても、碁に特化したAIだ。そのうえ、、コンピュータは24時間寝ないでご飯もたべないで勉強できる。プロの名人になる条件に、子供のころからなるべく多くの経験を積むことがあるとしたら、それだけでAIに負けてしまう。

  次に、AlphaGoに直感があるかどうかの話に移ろう。

  AlphaGoがイ・セドルに勝利を収めたとき、AIが直感を獲得したかどうかが話題になった。問題になったのは、第二局の黒の37手だ。イ・セドルだけではなく、AIと対決して負けた囲碁や将棋の名人の多くは、「(AIは)人間が気がつかない手をうつ」とコメントする。あるいは、また、「囲碁と違う競技をみているようだ」というコメントもあった。黒の37手もそのひとつで、常識からかけ離れた手だったらしい。実際、最初に学習させた3000万種の手のなかには存在していないものだった。

  AlphaGoの開発責任者で強化学習の専門家のデビッド・シルバーは、黒の37手は、明らかにAIが人間でいうところの直感を発揮したと考えている。試合のあと、シルバーが調べてみると、AlphaGoは、この手をプロ棋士が打つ確率は一万分の一だという計算をしていた。その手を確率が非常に低いにもかかわらず打ったということは、AlphaGoの直感が働いたからだとシルバーはいう。

  シルバーは、AlphaGoはプロの棋士が使う確率は1万分の一と非常に低いことを打つ前に知っていた。だが、また、報酬が多いことも知っていた・・・と語る。「AlphaGoは内省(introspection)と分析の結果、自分でそれを発見したんです」と語っている。

  うーん・・・。

  • AIと将棋や囲碁をして負けた名人の幾人かが、「人間が打たない手を打つ」とコメントしている。これは、人間の認知バイアスで説明がつくのではなかろうか? プロは、従来、プロが打ってきたパターンを勉強する。それが代々続いているわけだ。時々、まったく新しい手が発見されることがあるようだが、それでも、各名人の脳の中の記憶にあるのは、ある程度似通った内容だろう。だが、ゲームに特化したAIのなかには数千万件のデータがあり、そのデータをつかってAI同士で数百万回の試合をしている。新しい手を発見する確率はより高くなる。
  • 最終的勝利の確率をするモンテカルロ木探索手法は、モンテカルロ木探索ヒューリスティクスとも呼ばれる。なぜなら、すべての枝を最後まで追跡することは天文学的時間が必要になるので、コンピュータでも無理。ほとんど無作為に最終的勝利をもたらすような枝だけを追跡するようにする。「ほとんど無作為に」という言葉に、直感が含まれているかもしれない。完全な無作為ではなくて、過去に勝利に導いた手とか、いまの試合でよかった手とかのデータに基づいて重みを変えて選択している。これを直感と呼べるのかも? この場合、「無作為 random」という言葉を人間的に「無意識」に変えてもよいかもしれない。

  以上のような推測はできるけれども、なんともいえない。人間の直感や勘についての仕組みもわかってないのだから。

  どちらもブラックボックスなのだから。

  ニューラルネットワークの深層学習+強化学習をつかって、結果として、ゲームでは人間に勝てるようになったとか、Google検索でより正確なマッチングができるようになったとか、Facebookが写真から人間の顔を認識できるようになったとかいっても、中身がブラックボックスでは・・・・。人間の脳の意思決定プロセスが明らかになっていないのと同じではないか。

  AlphaGoを開発したDeepMindという会社の創立者の一人でCEOのデミス・ハサビスは、computational neuroscience(計算論的神経科学と訳すそうだ。これは人類の知性がどのようなものかを学ぶことで、どうやって知的コンピュータを創るか研究する学問だそうだ)や認知神経科学を学んでいる。だから、人間の脳の仕組みについてはよくわかっているはずだ。

  DeepMindは、大脳皮質をリバースエンジニアリングするといっている。同じように、AIをリバースエンジニアリングすることで、ブラックボックスを明らかにしようという試みも始まっている。AIが、どうやって、そういった結論に達したのか、所有者が知らなければ、法律的問題になる可能性もある。EUは2018年には、AIが下した結論について(融資の可否、病状診断、その他)、AI責任者はユーザーに答えることができなければいけないという規則をつくるかもしれないのだ。

  最後に、囲碁や将棋の話にもどります(といっても、私は、囲碁も将棋もできません)。AlphaGoに負けたイ・セドルは、試合後に、コンピュータと対決することで「もう前より強くなりました・・・コンピュータから新しいアイデアをもらったんです」と語っている。日本の将棋界でも、昨年デビュー以来現在(6月27日)25連勝中の中学生将棋士は、一年前から将棋ソフトを活用している。それが強い要因の一つではないかといわれている。読売新聞の記事によると、ソフトは1手ごとに、先手後手のどちらがどのくらい有利かを数値で示す。これを参考にしているそうだ。「ソフトを繰り返し使うことで、特定の局面がどちらがいいかを判断する力は磨かれていったと思う」と藤井四段はコメントしている。これって、AlphaGoの強化学習に似てるよね。

  人間には様々な認知バイアスがある。このブログでは脳の記憶容量の制限から生まれるバイアスが中心になったが、感情に影響される認知バイアスもある。感情がないコンピュータは、その弱点をカバーして正しい判断に導いてくれるだろう。人間もAIと、スタートレックのカーク艦長とミスター・スポックのような関係になれれば、これまでの何十万年の進化の歴史でしてきたように、また、大きな困難を乗り越えることができるようになるのでは・・・。

 

参考文献: 1.What the AI behind AlphaGo can teach us about being human, Wired, 5/19/16, 2. How the computer Beat the Go Master, Scientific American 3/19/16, 3. Intuition May Reveal where Expertise Resides in the Brain , Scientific American 5/1/20015,4.直観をつかさどる脳の神秘、RIKEN NEWS 4/11、5.将棋プロ棋士の脳から直感の謎を探る、RIKEN NEWS 9/09,6. Can we open the black box of AI? Nature 10/5/16、7.「終盤、驚異の逆転劇」読売新聞、6/3/17、8. With Siri, Apple could eventually build a real AI, WIRED、8. Language:Fiding a Voice, Economist、9.棋界、AIに完敗の衝撃、朝日新聞、6/9/17

Copyright 2017 by Kazuko Rudy.All rights reserved.

トラックバック

このページのトラックバックURL:
http://bb.lekumo.jp/t/trackback/603373/34061162

AIにも直感があるのか?(人間の脳もGoogleのAIも中身はブラックボックス)を参照しているブログ:

コメント

グログの更新を今か今かと待っていました。うれしいです。これから拝読させて頂きます。

コメントを投稿

コメントは記事の投稿者が承認するまで表示されません。