# 【改訂版】非エンジニア、文系、ビジネスマンのための人工知能入門
## Metadata
* [[Ama Z]]

* ASIN: B01N7LOHDK
* Reference: https://amazon.co.jp/dp/B01N7LOHDK
* [Kindle link](kindle://book?action=open&asin=B01N7LOHDK)
## 要約
## 読書メモ
## Highlights
>[!quote]
>現状の人工知能技術が「できること」と「できないこと」を理解することで、新たなサービスやビジネスへと活用したり、様々な社会問題に対する解決策を生み出すことができるかもしれません。 — location: [29](kindle://book?action=open&asin=B01N7LOHDK&location=29) ^ref-52347
---
>[!quote]
>あるタスクに特化して人間よりも秀でた性能を示すことができる — location: [71](kindle://book?action=open&asin=B01N7LOHDK&location=71) ^ref-58945
---
>[!quote]
>ほぼ人間と同じような知能レベルをもつことで複数タスクにまたがる処理を統合的に行なうことができるもの — location: [77](kindle://book?action=open&asin=B01N7LOHDK&location=77) ^ref-19797
---
>[!quote]
>強いAI は、人間が普段こなすようなタスク(話す、移動する、見る等々)を難なく行なうことを目的 — location: [91](kindle://book?action=open&asin=B01N7LOHDK&location=91) ^ref-31643
---
>[!quote]
>機械が人間の知能を超える段階を シンギュラリティ(技術特異点) — location: [94](kindle://book?action=open&asin=B01N7LOHDK&location=94) ^ref-58369
---
>[!quote]
>人間の知能は、『問題の解き方を、モジュール化することができ、さらに、問題に応じてモジュールを再活用することができる。また、その活用においては単体のモジュールだけでなく、複数モジュールの中から必要なモジュールを複数取り出して組み合わせて活用することができる』 ということ — location: [103](kindle://book?action=open&asin=B01N7LOHDK&location=103) ^ref-52383
---
>[!quote]
>音声認識(聞く・話すためのモジュールの研究)、自然言語処理(文章を理解する・返答を用意するためのモジュールの研究)、画像認識(見る・認識するというモジュールの研究) — location: [128](kindle://book?action=open&asin=B01N7LOHDK&location=128) ^ref-62792
---
>[!quote]
>脳の構造そのものを生理学的に解明し、その構造を工学的に再現しようというアプローチ — location: [131](kindle://book?action=open&asin=B01N7LOHDK&location=131) ^ref-4058
---
>[!quote]
>弱いAIはあらかじめフレームを特定してそのフレーム内における特定条件下で動作する人工知能 と考える — location: [196](kindle://book?action=open&asin=B01N7LOHDK&location=196) ^ref-64715
---
>[!quote]
>ニューラルネットワークの分野では、脳の神経細胞の構成単位であるニューロンを簡略的に模倣して工学的に再現する試みが行われています。 — location: [203](kindle://book?action=open&asin=B01N7LOHDK&location=203) ^ref-957
---
>[!quote]
>周囲の他のニューロンからの信号を受け取る樹状突起と、周囲のニューロンに信号を送る軸索によります。つまり、樹状突起より信号を入力し、軸索を伝わった電気信号を出力することで周りのニューロンに信号を伝搬します。また、軸索末端と樹状突起間をシナプス間隙と呼び、電気的信号ではなく化学的信号が伝達されます。 — location: [207](kindle://book?action=open&asin=B01N7LOHDK&location=207) ^ref-53276
---
>[!quote]
>りんご」という物体を学習するとき、人間がりんごを目でみたときには、りんごの特徴を示す果物、赤、丸いの3つ特徴をもつニューロンだけが発火するように、伝わりやすさを修正していきます。これによって、次にりんごを目にした時も、りんごの特徴をもつニューロンが発火することで、これが「りんごだ!」と認識できるようなイメージ — location: [236](kindle://book?action=open&asin=B01N7LOHDK&location=236) ^ref-3183
---
>[!quote]
>脳は複数のニューロンにまたがって分散的に情報を保持し、また、新しい情報が入ってきた時は脳全体で学習し、全体で保管しているのでないか言われております。 — location: [266](kindle://book?action=open&asin=B01N7LOHDK&location=266) ^ref-3459
---
>[!quote]
>自分の存在はまわりとの関係性で定義づけられる — location: [281](kindle://book?action=open&asin=B01N7LOHDK&location=281) ^ref-58746
---
>[!quote]
>特徴の組み合わせ(分散的保持)ではなく、特定のある事象や概念そのものを情報としてもつニューロンが存在するのではないかという考えです。例えば、あなたが「おばあちゃん」をみたり、聞いたりした時にだけ発火するニューロンが存在するとき、このニューロンはおばあちゃんを表現できる情報をもっているのではないかという仮説です。 — location: [287](kindle://book?action=open&asin=B01N7LOHDK&location=287) ^ref-35551
---
>[!quote]
>と、『コンピューターへの命令としてプログラムを書くときに人の手で全てやるには大変な部分を、自動で機械に学習してやってもらおう』 — location: [307](kindle://book?action=open&asin=B01N7LOHDK&location=307) ^ref-22914
---
>[!quote]
>として、「認識」 と「認知」 があることを理解する — location: [315](kindle://book?action=open&asin=B01N7LOHDK&location=315) ^ref-14751
---
>[!quote]
>認知」においては、 より効率的に多くの概念を学習できる こととそれぞれの 概念に対する汎用性 が求められ — location: [331](kindle://book?action=open&asin=B01N7LOHDK&location=331) ^ref-57302
---
>[!quote]
>認知能力が汎用性を持つほど認識側でもどのような情報を取り出せれば効率的に認知できるかが分かるようになり認識能力が向上します。また、より細かい情報も的確にとらえることができる認識能力が備わるほど、認知における汎用性も高まります。 — location: [344](kindle://book?action=open&asin=B01N7LOHDK&location=344) ^ref-39715
---
>[!quote]
>思いきって最適解を目標、局所解を現状と置き換えて考えましょう。 — location: [411](kindle://book?action=open&asin=B01N7LOHDK&location=411) ^ref-42802
---
>[!quote]
>現状ある程度いいところまで学習できるようになった状態を 局所解、 — location: [421](kindle://book?action=open&asin=B01N7LOHDK&location=421) ^ref-6506
---
>[!quote]
>100全て学習できた段階を 最適解 といいます。 — location: [422](kindle://book?action=open&asin=B01N7LOHDK&location=422) ^ref-11771
---
>[!quote]
>教師あり学習は機械学習の中でも最も代表的な手法と言えます。教師あり学習こそが、昨今、取り上げられている人工知能、いわゆる弱いAIです。主に回帰や分類といったタスクが教師あり学習で解かれます。 — location: [428](kindle://book?action=open&asin=B01N7LOHDK&location=428) ^ref-15108
---
>[!quote]
>このラベルというのは、データにつけられた情報です。教師あり学習では、データを学習器に入力した時に、その答えが与えられたラベルと一致するように学習器を学習をしていきます。つまり、ラベルが学習器の教師となるという意味から、教師あり学習と言われるのです。 — location: [434](kindle://book?action=open&asin=B01N7LOHDK&location=434) ^ref-2377
---
>[!quote]
>教師なし学習はラベルのついてないデータを用いて、そのデータのラベルや境界を推測していくようなイメージです。クラスタリングは、教師なし学習の代表の1つです。 — location: [440](kindle://book?action=open&asin=B01N7LOHDK&location=440) ^ref-64977
---
>[!quote]
>教師なし学習では、データをなんとなくその特徴から分類し、クラスターというデータの塊をつくります。このとき、クラスターの数をいくつにするか、また、そのクラスターの概念や意味付けを与えるところは人間が行う必要があります。 — location: [442](kindle://book?action=open&asin=B01N7LOHDK&location=442) ^ref-53763
---
>[!quote]
>強化学習は、あるエージェント(行動主体)が、自らのおかれた環境の状況に応じて、特定の行動を行った時にのみ報酬を与えることでエージェントが環境に応じてどう行動するべきか学ぶという学習手法になります。 — location: [447](kindle://book?action=open&asin=B01N7LOHDK&location=447) ^ref-57392
---
>[!quote]
>強化学習においては、コンピュータープログラム上で、この報酬を設計することでプログラムが自動的にその報酬を満たすような振る舞いを体得していくことができます。 — location: [454](kindle://book?action=open&asin=B01N7LOHDK&location=454) ^ref-55257
---
>[!quote]
>報酬を最大化するには、安定したスロットマシーンだけでなく、当たる確率が低いスロットマシーンにも、その潜在的なポテンシャルが潜んでいることを考慮する必要があります。 — location: [470](kindle://book?action=open&asin=B01N7LOHDK&location=470) ^ref-52504
---
>[!quote]
>探索とはリスクをとって新たなチャレンジを起こすことです。 — location: [474](kindle://book?action=open&asin=B01N7LOHDK&location=474) ^ref-18341
---
>[!quote]
>活用は、探索を含めた過去の経験から最もローリスクハイリターンな行動をとることです。 — location: [475](kindle://book?action=open&asin=B01N7LOHDK&location=475) ^ref-33871
---
>[!quote]
>ニューラルネットワークでは、脳の神経回路網を工学的に再現することで、高度な情報処理を実現しようという試みです。 — location: [482](kindle://book?action=open&asin=B01N7LOHDK&location=482) ^ref-39321
---
>[!quote]
>1943年脳のニューロンの工学的模倣として形式ニューロンが提案されました。 — location: [490](kindle://book?action=open&asin=B01N7LOHDK&location=490) ^ref-37228
---
>[!quote]
>ここまで、線形分離可能な問題しか解けなかったパーセプトロンが、バックプロパゲーションの提案によって非線形性分離可能な問題を解く力を獲得し、その応用性が高まってきた背景を説明してきました。 — location: [534](kindle://book?action=open&asin=B01N7LOHDK&location=534) ^ref-7280
---
>[!quote]
>当時のコンピューターの計算処理能力では、計算コストが非常に高く、実験による有用性の証明が困難でした。この結果、また冬の時代を迎えることになります。 — location: [539](kindle://book?action=open&asin=B01N7LOHDK&location=539) ^ref-16121
---
>[!quote]
>パーセプトロンは教師あり学習であり、この学習にはラベル付きの大量のデータが必要になります。 — location: [543](kindle://book?action=open&asin=B01N7LOHDK&location=543) ^ref-37316
---
>[!quote]
>ネット上にはたくさんのデジタルデータ生み出されるようになりました。そして、このネット上にあふれるデータとコンピューター処理技術の発達は新たなブームを呼び起こしました。 — location: [546](kindle://book?action=open&asin=B01N7LOHDK&location=546) ^ref-64094
---
>[!quote]
>2012年開催の画像認識コンテスト「ILSVRC(ImageNet Large Scale Visual Recognition Challenge)」におけるGeoffrey Everest Hinton教授をはじめとする研究グループのニューラルネットワークによるディープラーニングという手法を用いた圧倒的な画像認識精度の実現による勝利です。 — location: [549](kindle://book?action=open&asin=B01N7LOHDK&location=549) ^ref-21387
---
>[!quote]
>1つ目は、ネットワーク構造をよりディープに深くするということです。 — location: [561](kindle://book?action=open&asin=B01N7LOHDK&location=561) ^ref-23752
---
>[!quote]
>もう1つの理由は、ディープラーニングによって特徴量抽出が機械にやらせることができるようになった — location: [566](kindle://book?action=open&asin=B01N7LOHDK&location=566) ^ref-18161
---
>[!quote]
>従来はこれらの特徴量抽出手法を、場合に応じた使い分けを人の手で意図的に行う必要がありました。しかし、ディープラーニングではこの特徴量抽出の部分自体も学習により自動で獲得することができるようになったのです。 — location: [576](kindle://book?action=open&asin=B01N7LOHDK&location=576) ^ref-62842
---
>[!quote]
>あらかじめ大量の集めやすい自然画像によるディープラーニングの学習によって獲得された小さい概念が医療系画像における認識においても使い回すことができたということです。 — location: [610](kindle://book?action=open&asin=B01N7LOHDK&location=610) ^ref-39695
---
>[!quote]
>例えば、教科書に書かれている例題をいくら正確に解くことができたとしても、ちょっとひねったテストの問題で歯が立たないといった勉強の仕方では意味がありません。 — location: [616](kindle://book?action=open&asin=B01N7LOHDK&location=616) ^ref-49440
---
>[!quote]
>人間が伝言ゲームをしたときに、聞いた文章を次の人に伝言していくと、最後の人に伝言が伝わった時にははじめの伝言と違った意味の伝言になっているというような現象 — location: [636](kindle://book?action=open&asin=B01N7LOHDK&location=636) ^ref-34998
---
>[!quote]
>このデータはただ大量であるだけでなく、質が求められます。 — location: [641](kindle://book?action=open&asin=B01N7LOHDK&location=641) ^ref-57246
---
>[!quote]
>データに対してラベル付けを人の手で行うことになります。データ量が増えるほど学習精度はあがる一方で、ラベル付けする量や時間的コストも大きくなります。 — location: [643](kindle://book?action=open&asin=B01N7LOHDK&location=643) ^ref-9654
---
>[!quote]
>並列高速計算処理ができるGPUが必要となります。 — location: [648](kindle://book?action=open&asin=B01N7LOHDK&location=648) ^ref-49238
---
>[!quote]
>その手法自体の発展が目覚ましいわけではなく、コンピューター計算処理能力がやっと理論に追いついたという状況です。 — location: [653](kindle://book?action=open&asin=B01N7LOHDK&location=653) ^ref-32312
---
>[!quote]
>実際の脳のニューロンの構造的には、横に広く深さとしては浅いことが知られており、このことからも方法論的改善の余地があると考えられます。 — location: [656](kindle://book?action=open&asin=B01N7LOHDK&location=656) ^ref-7124
---
>[!quote]
>ディープラーニングの構造というのは、何層重ねたらいいのか?や各層のユニット数はいくつにしたらいいのか?などのこと — location: [661](kindle://book?action=open&asin=B01N7LOHDK&location=661) ^ref-9186
---
>[!quote]
>今後はデータを見て、ディープラーニング自体が自らのネットワーク構造を最適化して決定していくような仕組み — location: [663](kindle://book?action=open&asin=B01N7LOHDK&location=663) ^ref-27078
---
>[!quote]
>有名な教師データセットとして ImageNet があります。ImageNetは、Fei-Fei Liという研究者のグループを中心に構築されたデータセットであり、現段階で約2万カテゴリーのラベル付けがされた約1500万枚の画像が揃っています。 — location: [792](kindle://book?action=open&asin=B01N7LOHDK&location=792) ^ref-18301
---
>[!quote]
>この学習データにおける正解精度は、はじめ伸び続けますがしばらくすると頭打ちになり低回していきます。この状態を 過学習(Over Fitting) といいます。この段階に陥る前 — location: [808](kindle://book?action=open&asin=B01N7LOHDK&location=808) ^ref-28779
---
>[!quote]
>遺伝的アルゴリズム では、 遺伝子情報を他の情報に置き換えて考えやすく、また、評価部分を柔軟にかえることで多様な問題に適用できる という特徴があります。 — location: [1028](kindle://book?action=open&asin=B01N7LOHDK&location=1028) ^ref-56121
---
>[!quote]
>遺伝的アルゴリズムとニューラルネットワークを組み合わせた 進化型ニューラルネットワーク というアプローチがあります。一般に ニューロエボリューション とも言われます。 — location: [1032](kindle://book?action=open&asin=B01N7LOHDK&location=1032) ^ref-9141
---
>[!quote]
>NEATでは、はじめにネットワーク構造を初期値として与えておくと、あとは進化計算により、ネットワーク構造と重みを同時に最適化していくことができます。言い換えると、従来のニューラルネットワークでは、学習するデータに応じてネットワーク構造を研究者が決定していたために、そのネットワーク構造に依存するパフォーマンスの限界が存在する可能性がありました。しかし、NEATでは学習するデータを学習器自体が見て、そのデータを効率的に学習できる最適なネットワーク構造を機械が探索できる可能性があります。どんなデータにも適用した学習を機械的に自動で行える可能性があるのです。 — location: [1042](kindle://book?action=open&asin=B01N7LOHDK&location=1042) ^ref-20185
---
>[!quote]
>現在の弱いAIをさらに高度化できるのではないかと期待される進化計算とそれに関連する遺伝的アルゴリズムや進化型ニューラルネットワークについて説明し、そのポテンシャルと実際にNEATにおけるニューラルネットワークの学習プロセスについて紹介 — location: [1074](kindle://book?action=open&asin=B01N7LOHDK&location=1074) ^ref-59349
---