基本的な概念・用語
人工知能(AI:artificial intelligence)とは、人間の脳の特徴である学習・推論・判断などの機能を、人工的に実現しようとする研究分野である。
脳には多数のニューロン(神経細胞)が存在し、ニューロン同士の結合間に電気信号が送られることで、情報が伝達されたり、記憶が定着したりする。ニューロンの結合部をシナプスという。
人工知能研究には二つのアプローチがある。その一つは、脳を模倣することである。それをコンピュータに実装するにはニューロコンピュータが適している。ここでは主にこのアプローチを対象にする。
他の一つは、脳のメカニズムではなく、実務面において脳の働きとされる業務をコンピュータにやらせようというアプローチである。後述のエキスパートシステムはこれに近い。これには、従来のノイマン型コンピュータで実現できることが多い。
以下、人工知能に関する基本的な概念や用語を列挙する。
ニューロンモデル
入力側のニューロンから、シナプスを介して樹状突起へ信号が入力される。入力ニューロンが興奮性ニューロンからの信号なら電位が上がり、抑制性からの信号なら電位が下がる。電位が閾値より高くなるとニューロンが興奮して、軸索を伝わって他のニューロンに信号を伝える(下左図)
このようにして、多くのニューロンへ信号が伝播する。
出典:村上・泉田研究室「生体ニューロンについて」(2017)
(
http://ipr20.cs.ehime-u.ac.jp/column/neural/chapter2.html)
1943年に、マッカロックとピッツは、この仕組みを、モデル化した(上右図)。これを「形式ニューロン」という。「パーセプトロン」は、この概念を発展させたものである。
入力=w1x1 + w2x2 + … + wnxn
出力=f(入力-θ)
階層型ニューラルネットワーク
複数のニューロン間の情報伝播を単純化したものが階層型ニューラルネットワークあるいは多層パーセプトロンという。
入力層のニューロンでは信号処理を行わず、受け取った入力信号をそのまま中間層のニューロンへ伝えるとする。中間層と出力層は上式により入力→出力の処理をして、出力信号を他のニューロンへ伝える。ここでは、中間層を一層としたが、多層にすることができる。人間の脳はもっと複雑なメカニズムになっているが、5層~10層程度で近似できるといわれている。
出典:村上・泉田研究室「生体ニューロンについて」(2017)
(
http://ipr20.cs.ehime-u.ac.jp/column/neural/chapter2.html)
バックプロパゲーション(誤差逆伝播法)
入力層に多様な信号を与えて出力層からの信号を得たとき、それが正しいか誤りであるかを人間が教える(実際には、正解を付けた入力データを与える)。中間層での重みを変更することにより、正しい結果を得る確率を大にすることができる。その代表的な方法にバックプロパゲーション(誤差逆伝播法)がある。
学習(機械学習)
この「入力-出力ー判定」を多数回繰り返すことにより、次第に正しい結果を得る確率が高くなる。その確率が高くなれば、新しい質問(入力)に対して正しい答え(出力)を出すようになる。このプロセスを学習という。
このような「人間が教える」学習を「教師あり学習」という。それに対して、コンピュータに多数の画像を見せて、コンピュータが似たもの集めをするような学習は、人間の関与を必要としない(人間もわからない)。このように推論、分析など、正解がない、正解が解らない問題で学習することをを「教師なし学習」という。
ディープラーニング
ディープラーニングとは、多層(ディープ)ニューラルネットワークによる機械学習手法。2000年中頃に提唱され、人工知能は急速に発展した
オートエンコーダとは、機械学習において、ニューラルネットワークを使用した次元圧縮のためのアルゴリズム。ディープビリーフネットワークとは、多層ニューラルネットワークで良い初期解を得る方法である。これらにより、4層以上のニューラルネットワークにおいて、単純なバックプロパゲーションよりも、効果的な学習ができるようになる。
従来の機械学習は、教師あり学習、教師なし学習に分けることが多い。それに対してディープラーニングでは、例えば画像のデータを与えた場合、コンピュータは与えられた画像のデータの一部を消して、「消えた部分を残った部分から推測せよい」という問題に変更して自分自身に質問する。これにより、画像を1つ与えるだけで、多数のの擬似的問題を作ることができる。
エキスパートシステム
人工知能の研究分野では、頭脳のメカニズムを模倣する分野以外に、実務として頭脳が行うことをコンピュータで実現させようという分野がある。エキスパートシステムは後者の一つで、専門家が持っている知識をコンピュータに記録して、素人でも専門家に準じた知識を得られるようにしようというシステムである。
- 知識ベース
「もし…ならば…確率…で…である」という自然言語形式のデータである。定義的な知識もあれば、専門家が経験から得た暗黙知をこの形式で明示した知識もある。
- 推論エンジン
推論エンジンは、利用者の質問に知識ベースにより推論するプログラムである。三段論法を定式化した命題論理だけでなく、述語論理やファジィ論理など多様な論理法を使っている。
- 対話方式
結果として「確率…で…である」ことを出力するが、質問をより明確にして確率を高めるために、利用者に追加条件を誘導するなど対話機能をもつ。
このような機能であるから、特別な方式のコンピュータではなく、ノイマン型の高速コンピュータで実現できる。言語はLispやPrologが用いられた。
1980年代に実務者の間にも、技術継承や設備運転マニュアルなどの用途で関心が広まった。しかし、知識ベースの獲得や整理に専門的な技術が要求されることから、限られた分野以外にはあまり普及しなかった。
ニューロコンピュータ
ニューロコンピュータとは、ニューロンやシナプスの構造や情報処理メカニズムを基礎とし、脳の持つ情報処理能力を人工的に実現させることを目的としたコンピュータであり、多層ニューラルネットを持ち,
バックプロパゲーションによる学習の仕組みを実装したコンピュータである。
エキスパートシステムなどの実装はノイマン型コンピュータで可能である。「ニューラルネットワーク
などもプログラムや学習システムの構造を意味する概念であり、ハードウェアとしての回路などを示すものではなく、ノイマン型コンピュータでソフトウェアによりシミュレートすることはできる。ニューロコンピュータとは、それを構成する回路が脳を模倣したものであり、根本的にノイマン型コンピュータとは異なる。
- 超並列プロセッサ
ニューロコンピュータを構成するニューロチップは多数のコアプロセッサからなる超並列プロセッサである。。それぞれのコアが演算回路、メモリー、コア間通信用のルーターなどを備え、ニューロン間の結合の強さなどのパラメータは、すべてコア内のメモリーに保存され、プログラムに相当する情報が、コアの中に封じ込められている。
- 低消費電力
各コアは非同期的に通信を行い、処理を行わないコアはアイドル状態となる。しかも、ニューロコンピュータの周波数が1kHzと非常に小さい(脳は10Hz、ノイマン型は5GHz)。そのため、消費電力が圧倒的に低い特徴がある。これも人間の脳に近い。
- ノイマン型コンピュータとの連携
組込みシステム以外では、ニューロコンピュータを単独でシステム構築するのではなく、外部とのインタフェースや学習機能など全体を制御するために、ノイマン型コンピュータと連携させるのが通常である。大規模なシステムではスーパーコンピュータと連携させている。
- 用途
ニューロコンピュータは並列分散情報処理能力を持つため、音声や画像のパターン認識、意思決定などの最適化問題への適用、ロボットや複雑なシステムの最適制御などへの応用が注目されている。また、市場動向の予測にニューロコンピュータを利用した事例もある。
人工知能とニューロコンピュータの歴史
人工知能の発展に関して、説により期間に関しては若干の違いはあるが、これまでに3回のブーム(発展期)があった。
第一次:1950年代後半~1960年代 記号論理、自然言語処理
第二次:1980年代 エキスパートシステム
第三次:2000年代~2020年代初頭 ディープラーニング
第四次?:2020年代初頭~現在 生成AI、対話型生成AI
ニューロコンピュータは、1990年頃までは、人工知能理論実証のために実験的なハードウェアが試作されたことはあるが、実務用途にはならなかった。1990年代には、産業用ロボットなどの機器の制御に小規模なニューロ的なチップが組み込まれるようになったが、この分野では時期を特定するのは難しい。実務的なニューロコンピュータが注目されるようになったのは2010年代に入ってからだといえよう。
~1950年代後半 人工知能前史
人工知能研究の基礎となる研究は1940年代に始まった。
- 1943年 ウォーレン・マカロック、ウォルター・ピッツ、「形式ニューロン」発表
脳の仕組みを論理的な表現にできることを示した。
- 1949年 ドナルド・ヘッブ、「学習則」(ヘップの法則)を提唱
脳のシナプス可塑性についての法則。シナプス前ニューロンの繰り返し発火によってシナプス後ニューロンに発火が起こると、そのシナプスの伝達効率が増強される。
1950年代後半~1960年代 第一次人工知能ブーム
自然言語処理、ニューラルネットワークなど人工知能分野での成果が続いた。しかし、この時代は明示的な記号論理を基盤にしたものが多かった。
- 1956年 ダートマス会議でマッカージーが「人工知能」という用語が初めて使った。
-
- 1958年 フランク・ローゼンブラットがパーセプトロンを発表した。
(1969年、マービン・ミンスキーとシーモア・パパートは、単純パーセプトロンでは線形分離不可能なパターンを識別できない事を示した。)
- 1964年 ジョセフ・ワイゼンバウム、ELIZA発表<
キーボードによる対話システム。人間(患者)が文章を入力するとDOCTOR(精神科医を模したシステム)が返答する。単に、患者の言葉をにウム返しの返事をしたり、話題を変えたりするだけの機能(人工無脳)だが、あたかも人間のような会話が維持される。
- 1968年 映画「2001年宇宙の旅」
宇宙船制御用人工知能コンピュータHAL9000は乗組員との交信など現在の人工知能機能をほぼ予見していた。これにより、人工知能という言葉が社会に広まった。
1970年代 冬の時代
人工知能への関心は広まったものの、期待したほどの成果は得られなかった。当初は自然言語翻訳(日本語⇔英語など)への関心が高かったが、すぐに限界が見えてしまった。
理論を実現するには、当時のコンピュータの能力が低かったし、学習するためのデータが未整備だった。そのような環境により、画期的な方法論も出現しなかった。
- 1972年 エキスパートシステム MYCIN
- 1979年 EMYCINに発展
エキスパートシステムの概要は上述した。MYCINはブルース・ブキャナンとエドワード・ショートリッフェらにより開発された伝染性の血液疾患を診断し抗生物質を推奨するシステムである。
これ自体はほとんど治療実務に使われることはなかったが、その後のエキスパートシステムの普及に大きな影響を与えた。
1980年代 第二次人工知能ブーム
エキスパートシステムの普及、画像・音声認識の基礎確立、バックプロパゲーション技術の発展など、ディープラーニングの基礎技術が生まれた。
- 1979年 福島邦彦、ネオコグニトロン発表
ネオコグニトロンは自ら学習することによってパターン認識能力を獲得する。これを基にCNN(Convolutional neural network、畳み込みニューラルネットワーク)へと発展。画像を複数のカテゴリに高速分類する学習技術で、ディープラーニング分野の基礎技術になる。
- 1982~92 第五世代コンピュータプロジェクト
通産省(現経産省)の支援による国家プロジェクト。IBMに追いつき追い越すことを目標に、非ノイマン型の並列推論マシンの構築を目指した。ハードウェアでの成果は期待外れだったが、エキスパートシステムや人工知能への適用が大きなテーマになり、日本での人工知能研究の発展、人工知能技術者の育成に大きな成果が得られた。
- 1982年 ジョン・ホップフィールド、ホップフィールド・ネットワーク提案
- 1985年 ジェフリー・ヒントンら、ボルツマンマシン提案
ホップフィールド・ネットワークとは、ネットワークに情報を記憶させる技術。ボルツマンマシンはホップフィールド・ネットワークを改良したもの。多階層ニューラルネットワークでの中間層の素子を少なくできろこと、ノイズあり画像から元のノイズなし画像を復元するなどに効果的。ディープラーニングの基礎技術の一つ。
- 1986年 日本人工知能学会の設立
1990年代~2000年代前半 冬の時代
人工知能の周辺技術や一般大衆への認知は急速に発展した。しかし、人工知能の理論やニューロコンピュータへの実装などの分野では、大きな進歩は見られなかった。
- 1990年 ジョン・コザ、遺伝的プログラミングの提唱
遺伝的プログラミングとは、遺伝や突然変異などの概念により、探索や最適化を求める手法。ニューラルネットワークや電子回路の設計、ロボットの制御プログラミングの作成などに利用される。
- 1990年代中頃 データマイニングの普及
大量のデータを分析することにより、それまで気づかなかった役立つ情報を発見する手法。主に統計的手法が用いられるが、人工知能分野での検索技術等の応用も考えられるようになった。
- 1997年 チェスプログラムDeepBlueがチェスチャンピオンに勝利
DeepBlueは、IBM社のチェス専用スーパーコンピュータ。過去の棋譜を学習させ、何手も先読みして、適切な手筋を探し出す。人工知能が人間の棋士と互角に戦えるとして話題になった。
現在では、囲碁や将棋で、人工知能が人間の棋士より強くなっている。
- 1997年 ソニー、犬型ロボットAIBO発表
人工知能を組み込んだ産業用ロボット、自律型の人型ロボット、玩具ロボットなどは以前からあったが、AIBOは本格的に人工知能を組み込み学習機能をもたせた最初の玩具ロボットの一つである。定価25万円の玩具が予約開始20分で日本向け3千台の受注を締め切るほどの人気を博した。
2000年代後半~2020年代初頭 第三次人工知能ブーム
ディープラーニングの基礎的な研究は、1980年代に行われていた。それが2000年代後半になると、さらに研究が進み、人工知能分野は急激な発展の時代に入った。また、ハードウエア技術の進歩により、2010年代になると、ニューロコンピュータがブレインコンピュータ(脳模倣型コンピュータ)といわれるまでになった。
この期間を通して「AI」の認知度が高まり、2020年頃には、一般用語になるまでになった。
- 2005年 シンギュラリテ予測
シンギュラリティとは、技術的特異点のこと。著書『The Singularity Is Near : When Humans Transcend Biology』で、遺伝子学、ナノテクノロジー、ロボット工学技術の3つの技術革命が融合することで、日常生活から人生観、世界観まで根本から変化するとし、それをシンギュラリティとした。
この指摘は広く広まり、2045年にはAIが人間より賢い知能を持つようになり、広い分野で人間の職場がAIやロボットに置き換わるだろうといわれるようになった。
- 2006年 ジェフリー・ヒントンら、ディープラーニングの提唱
厳密には、ここではディープラーニングという言葉は使っていない。オートエンコーダとディープ・ビリーフ・ネットワークを提唱したのであるが、それらが(いつのまにか?)ディープラーニングといわれるようになったのである。
- 2008年 SyNAPSEプロジェクト発足
SyNAPSE(Systems of Neuromorphic Adaptive Plastic Scalable Electronics)プロジェクトは、DARPA(米国防高等研究計画局)の資金援助を得てIBM、HP、コーネル大学やスタンフォード大学などが参加した脳を模倣したニューロ・チップ(SyNAPSEチップ)分野のプロジェクト。
- 2011年 IBM、Watsonデビュー
Watsonは米国のクイズ番組でクイズ王と対戦して勝利した。駄じゃれや、同義語・同音異義語、俗語・専門用語など、あいまいな表現を含む自然言語で出題される問題に答えられることを示し、人工知能が実用化されたことを実証した。
当時のWatsonは、ハードウェアとしてはニューロコンピュータではなく、ノイマン型コンピュータでこのような用途に特化した専用機である。90台のサーバに2880個のプロセッサをもち並列処理を行う。16TBのメインメモリに知識を格納されていた。質問に答える際の消費電力は80kWhにもなるといわれた。
その後、WatsonのAPIを公開し、Watsonをクラウドで利用できるサービスを提供した。第三者がWatsonを利用できるようになったのである。
- 2011年 IBM、コグニティブ・コンピューティング・チップ開発
コグニティブとは認知という意味。ニューロコンピューティングに特化したSyNAPSEチップ。
(IBMは、AIを「Artificial Intelligence(人工知能)」ではなく、「Augmented Intelligence (拡張知能)」として人間の知識を拡張し増強するものと定義している。)
- 2012年 ヒントンらのグループ、人工知能コンベンション優勝
ディープラーニングによるシステムが画像認識、音声認識、化合物の活性予測の3分野で優勝
- 2012年 Google、教師なし学習による画像認識「猫」
大量の画像をコンピュータに読み込ませて、教師なしで、特徴点を判断してクラスタリングを行わせた。それにより、写真を見せるだけで、それが猫であるか否かを判断するシステムを公開した。すなわち、猫という概念を自動学習で獲得したのである。
Cloud Vision API」をWebで提供している。例えば「花の写真をアップロードして花の名前を知る」ようなことが、トライアルでできるし、APIを用いて独自のアプリを構築できる。
ハードウェアは、ノイマン型コンピュータのPCサーバが1,000台使われたという。
- 2014年 IBM、TrueNorth開発
コグニティブ・コンピューティング・チップを発展させたチップである。郵便切手サイズチップ1個内にプログラム可能な100万個相当のニューロン、2.56億個相当のシナプスの性能をもつ。
TrueNorhはシステム動作クロックは1kHzと低く、各コアは非同期的に通信を行い、処理を行わないコアはアイドル状態となる。そのため、消費電力密度は20mW/cm2しかない。ノイマン型プロセッサでは50W/cm2程度であり、飛躍的な省電力を実現している。
2020代初頭~現在 (生成AIと社会)
人間の指示により、AIシステムが文章、画像、音声、動画を生成する生成AIが出現した。さらに2022年からは、chatGPT, Copilot など、対話型生成AIに発展した。
生成AIにより、一般の人が無料で簡単に文書や画像を作成することができる。これは、多様な分野でITの活用を劇的に向上させた。反面、ディープフェイクなど反社会的な利用が流布し、社会的に深刻な問題になってきた。
→AIの歴史(2)につづく。
参考URL