スタートページ主張・講演マーフィーの法則(Vol.3)

Murphyology by a retired
AI談義

本ページの性格に関しては、こちらを参考にしてください


ITを使えば何でもAIになる。

従来の統計的手法とAI

私は、AI技法の多くは、従来からの多変量解析やデータマイニングなど統計的手法の発展形態だと理解している。
昔は、統計学の第1回講義で、次の留意事項を叩き込まれた。
[用いるデータ]
・母集団を代表する標本を使え
  バスケット選手だけを調べても、男性成人の身長はわからない)
・同じ環境で採取せよ(異常値を使うな)
  ネコのデータの中にゾウのデータがあると、体重の平均を求めても意味がない。
  災害の影響を調べるのではない限り、平常時のデータと災害時のデータを混在させるな。
[結果の分析]
・信頼水準を重視せよ
  サイコロを3回なげて1の目が2回でたとしても、サイコロがイカサマだとは断定できない。
・見かけの相関に騙されるな
 IT投資が盛んになると海外旅行者が増える?
 どちらもGDPのへの相関が高いことによる疑似相関であり、直接の関係はない、まして因果関係はない。
ところが、世間でのAIに関する記事では、これらを無視していることが多い。

AIは、鹿を馬だと納得させるのに便利な手段

昔、X国ではAIによる国家戦略策定を検討していた。それに先立ちAI機能の学習プロジェクトを立ち上げた。そのなかに、馬と鹿の画像判別が取り上げられた。そのリーダになったAは、教師役の部下に「鹿を馬、馬を鹿だと教えよ」と強制した。ある日、Aは皇帝に、鹿を馬だとといって献じた。不審に思った皇帝はAIに献上品の写真を見せたところ、馬だと答えたので、皇帝も納得した。

なかには、鹿だと進言するBがおり、Bの意見もAIに与えた。それを分析したAIは「Bの意見には誤りが多い」と学習し、他の事案でもBの論理を無視した。その後、国家戦略の支柱となったAIでもBの主張が考慮されることはなかった。

AI担当大臣になったAは、隣国Yに異常な敵対感情をもっていた。有史以来のXY関係の文献をAIに与え、YがXに友好的で貢献した事項は「誤」だとし、敵対的あるいは迫害した事項は「真」だと教育した。それによるAIは歴史認識として、X国の対Y国外交の基本方針となった。同時に「AIの判断経過はわからない」とのフェイクを広めることにより、この政策の説明責任を回避することができた。

AIの解は神のお告げ(AIは説明責任を持たない。)

家計調査などデータを長期的に収集したAIが「夫が出張先でラーメンをとる回数が多いと、妻がツイッターをするようになる」というルールを創出することもあろう。
(ご当地ラーメンがブームになったことと、それとは全く関係のないSNSの普及が、たまたま時代が一致したからに過ぎないのかも)

天候統計や企業統計のデータから、AIは「風が吹くと桶屋が儲かる」という関係を得るかもしれない。
これに乗じて、識者なる人たちは「風が吹くと埃が目に入り~」なる理論をでっちあげ、その理論がAIで証明されたと主張する。

生成AIにトランプ大統領のツイッターだけを与えて、温暖化防止に適切な対策を求めるのは不適切である。

教師なし学習では、教師によるバイアスは制約されよう。しかし、いかにAIだとはいえ、無から有は得られない。学習する材料が必要だ。ところが、少なくとも現在では、対象分野を正しく認識して情報を収集し、その真偽を評価して採否するには、何らかの人間の介入が必要であり、そこにバイアスが生じる。

逆に人間の介入をさけると、極端には、AIがリツイート数などにより、記事の重要性や信憑性を評価するようになると、AIの判断材料がフェイク記事で埋め尽くされることにもなりかねない。

生成AIモデルの構築方法は公表されており、小規模な独自の生成AIモデルは大組織でなくても構築できる。いかがわしいSNSサイトが、反社会的な分野の生成AIを活用するのは当然な成り行きだろう。もう既に流布しているのかも?

くたばれAI

明るい将来、暗い現実

子供のころ、科学技術(特にIT)の発展により「仕事をロボットに任せて、衣食住はタダになる。人間は芸術や娯楽を楽しめばよい」社会が到来すると信じていた。それがAIの能力が向上したら「仕事はAIに奪われ、多くの職種で人間に置き換わるシンギュラリティ社会」になるといわれるようになった。
「失職した人間は、現実社会では衣食住も欠乏する。そのような人間は、仮想空間に逃避して別人生の夢を過ごせばよい」になる。その夢も楽しい夢どころか・・・。

勘定と感情

AI活用の成果は、効率やコストパフォーマンスの向上(勘定)にあるようだ。その評価尺度で発展するAIが支配する社会では、シンギュラリティの敗者はマイナス要因であるから排除するのが適切である。AI(ロボット)がやりだくない(故障発生リスクの高い)仕事を人間にやらせ、それもできない人間は・・・。
このような事態を予防するために、アシモフの「ロボット3原則」を、人類の絆(感情)を重視した「AI3原則」に発展させることを願う。

人々は自主的にAIに隷属する。

対個人金融機関では、以前から個人情報を活用して信用度を数値化して、貸し付けの是非や利率の決定に利用していた。その時代では利用される個人情報も信用度の利用範囲も限定されていた。
ところが、中国アリババが展開する「芝麻信用」(信用ランク)は、Webを介して消費行動、交友関係、監視カメラを通して遵守行動など広範囲な情報を収集し、AIを活用した信用度を本人のスマホなどに表示するサービスを展開しているとか。
ローンなどに用いるだけでなく、信用ランクを提示することにより、借室の是非やホテルの代金決定などに広く用いられ、就活や婚活にまで使われるようになってきたそうだ。
このような環境では、信用ランクを上げること、すなわちAIに喜ばれることが、重要なことになる。人々はAIによる評価を高くすることが行動規範になる。
このAIが国家権力による意思により、収集する個人情報が拡大され、加工方法に影響するようになると、人々は権力者が示した模範行動を自主的に行うととになる。ジョージ・オーウェル「1984」のビッグブラザーの実現だ。

AIは趣味を奪う(人間は安易な手段に逆らえない)

花の写真を撮って、Webの花図鑑を右往左往して名前を調べるのは、面倒だが適当な暇つぶしになる。それがAIサイトに通信すれば安易に分かってしまう(「不能」でイライラすることもあるが)。その誘惑を避けるのは難しい。他の暇つぶし手段を探さなければならなくなる。
ヘボ将棋を囲み岡目八目でワイワイやるのは邪魔だが楽しいものだ。そのとき、スマホアプリを見る奴がいると、一瞬に場が白ける。

便器を続けて購入するのは稀である。

先日、ネットで便器を購入した。その後数週間ほど、私のWeb閲覧ページは便器の広告で満ち溢れた。
これもAIの仕業だろうが、「通常の家庭では多数のトイレはない」というルールを学習していないようだ。
こんなバカなマーケティングをするようなサイトで誰が買い物をするものか。せっかくの個人情報だ。もっとマトモに活用してくれ。

生成AIに昔の欠点を指摘される

生成AIに質問して、求める適切な回答を得るには(もし得られるとして)、最低3回の問い直しが必要である。
これを繰り返すうちに、人間相手でも同じなのでは? と不安になった。自分語だけで思考し相手語での質問をしていないのでは?
現役時代、部下のトンチンカンな返答に怒ったのが恥ずかしい。

発見! チャットAIによるコールセンター合理化

コールセンターのスタッフに適切な回答を示したり、チャットボットに代行させることは、実際に広く用いられている。
さらに進化した究極のコールセンター合理化モデルを発見した。
 WebサイトでFAQのページに入ったら、「チャットAIの使い方」のページが表示された。それだけ。
 苦労してコールセンターの電話番号を見つけて電話したら、自動音声返答でそのFAQページのURLを告げられただけだった。