Web教材一覧>
AI
生成AIと社会
(注)本ページは2024年中頃の記述です。技術的な説明は厳密ではありません。
生成AI、特に対話型生成AIの出現は、社会の広範囲に大きな影響を与えています。ここでは、プラスの側面、マイナスの側面およびその対策について考えます。
AIは、機能的には次のように分類できます。
AI┰(従来型)AI
└ 生成AI
└ 対話型生成AI
しかし、AIの適用や効果の観点では、その区別は不明確です。
それでここでは、生成AIを主としたAIを対象にします。
生成AIの利点
PC利用での効果
- 検索エンジンの拡張
検索エンジンは多様な目的で利用されています。生成AIは「複雑な条件での検索」ともいえます。両者を組み合わせることにより、効率的・効果的に情報が得られます。
- Q&A
「Webページ閲覧の応答が遅くなった。原因と対策を教えて」などに、それなりの回答がえられます。その回答に追加の質問を繰り返すことができます。Webサイト「教えて、教えます」のようなコーナがありますが、回答の即時に得られること、相手の気持ちを忖度せず質問を続けられることなどの利点があります。
- 手紙等のひな型作成
誕生日のお祝い、町内会へのイベント連絡などに、ひな形の文章が得られます。画像を組み合わせることもできます。生成したももをメールやSNSで送る操作も容易です。
ビジネスでの利用
この用途では、おしきせの生成AIではなく、社内情報を検索用データベースに入れること、用途に適したカスタマイズをすることなどが前提になります。
事務一般
- 会議等での生成AI活用
プレゼンテーションでは、重点の列挙や説明の順序などに「ひな形作成」機能が使えます、
資料の作成では、キャッチフレーズの作成、アトラクティブな画面の作成に使えます。
会議の議事録作成などには「要約」機能が使えます。
ブレーンストーミングの整理には、項目間関係の強度測定ができ、各項目の他項目への影響などを検討する資料が作れます。
- RPA(Robotic Process Automation)の高度化
RPAとは、ホワイトカラーの日常業務を自動化することです。現在のRPAは事前に設定した定例業務だけが対象になっていますが、AIと組み合わせることにより、対象を広げ、キメの細かい処理が可能になります。
- グループウェアの高度化
これには、業務報告や稟議決裁など業務の流れを管理するワークフロー管理や、各人の経験や知識を全社的に共有するナレッジ・マネジメントなどがありますが、AIの利用により自動化や操作の容易化が図られます。
- BI(business Interigence)の高度化
BIとは、その人に必要な情報、定例的業務などを使いやすい形式で、その人のPCに表示する仕組みです。ここでもAIの利用が効果的です。
コールセンター、ヘルプデスク
- CTI(Computer Telephony Integration)
コンピュータと電話とを統合してコールセンター業務機能を支援するシステムです。
電話番号などから顧客を認識して、過去の購買履歴や質問回答履歴をオペレータのコンピュータに表示します。質問に応じて対象製品や、トラブル対応情報なども表示することにより、オペレータの業務を支援する仕組みです。2000年代初期にはすでに普及していました。
- チャットボット
チャットボットとは、CTIの発展形で、ユーザーの質問に、コンピュータが自動的に回答を返すシステムです。当初は典型的な質問に限られ、回答も定型的でしたが、対話型生成AIに適した分野で、多様な質問に対応できます。
小売、サービス業
- 広告、ポップの作成
商品やサービスの広告文を作成するには、顧客層にマッチしたキャッチフレーズが求めらます。ポップには顧客にアピールする画像が必要です。これには、コピーライタやデザイナの補佐をする文章や画像の生成AIが活用されます。
- デザイン生成
婦人服を例にします。顧客はそれぞれの趣味や評価基準を持っています。個々の顧客が満足する商品を製作し陳列するのは困難です。
顧客がプロンプトを入力すると、それにマッチした服を表示する画像生成AIモデルを作り、自社サイトから利用できるようにします。色や好みなど多様な項目をアレンジしたプロンプトメニューも設定します。そして、AIが売場スタッフのようにアドバイス役を振る舞う仕組みにします。ニーズが確定したら、さらに必要事項を入力してもらい注文ページに移動します。
これにより、店舗は不要な商品が不要になるし、顧客は多数回の試着ができる利点があります。
工場、物流センター
この分野は、生成AIというより広い意味でのAI技術の活用ですが、ヒューマンインタフェースの改善には生成AIが使われます。
- CIM(Computer Integrated Manufacturing)
工場での原料や製品の在庫管理、生産計画、設備・機器の運転管理、品質管理、原価計算などにITを活用した統合生産システムで、1980年代から発展してきた外面です。
- IoT((Internet of Things)
設備や機器、材料や製品にセンサを取り付け、センサ間、センサと人間の間をネットワークで接続して、自動運転、最適化、事故防止などを行うシステムです。これが高度になると、設備・機器の自動運兼や構内運搬自動化になり、無人化すら出現しています。
AIを活用することにより、センサからの情報を多角的に分析して、問題発見、最適化などの高度化が図られます。
- 最適配送
ドライバ不足、ガソリン高騰、ネット販売の増加など、物流を取り巻く環境は厳しくなっています。それに対処するには、物流共同化や最適配車などの対策が重視されています。それには、多くの条件が複雑に絡み合っており、AIを活用して人間の経験を補完する改善案を探索することが求められます。
- 自動車の無人運転
自動車の無人運転が限定的ですが実用化されています。多様な技術や環境整備の結果ですが、AIが不可欠なものになています。
計画・戦略分野
- 計画・戦略案の策定
この分野でのAIの効果をひとことでいえば「多数の要因があり、要因間には複雑な関係がる。それを分析して、主要な関係を発見すること、その信頼性を評価すること」です。
以前から、この分野には、経営工学、統計的方法、ORやオペレーションズリサーチ)、データマイニングなど多様な方法が適用されてきました。
AIは、それに置き換わるものではなく、主としてニューロネットワークを用いて、それらの手法の高度化や新しいアプローチ、新しい分野への発展だといえます。
- 例:需要予測
コンビニでは適切な発注をすることが利益増大の基本です。翌日の需要は、曜日、天候、近所のイベントなど非常に多くの要因が複雑に絡んでいます。近年は、ホテル等は需要により価格を変動しています。適切な価格設定には、さらに多くの要因があります。
適切な発注、価格設定をするための技法は多様ですが、「多数の複雑な関係をもつ要因から、法則を発見し、その検証をする」ことになります、AIが活躍できる分野です。
- 参考意見としての利用
SWOT分析や新製品開発などで、いくつかの案ができたとき、生成AIの「Q&A」機能を使って、AIに回答を求めることができます。また、ある方針案がコンプライアンスの観点からの指摘を得ることができます。
信頼性はかなり低いのですが、第三者意見として参考になりますし、気づかなかった視点を得ることができます。専門家に相談する前に質問点を整理するのに役立ちます。
教育、学習
- 学習環境の提供
企業では、ITの活用に伴い業務転換が進んでいます。従業員が必要とされる能力を得るために、再教育が必要になります。初等教育では児童・生徒の自主的学習が重視されています。
このようなニーズに応える環境を整備するのに、生成AIは大きな支援手段になります。
- 教師の負荷削減
学校では、教師の過重労働が問題になっています。生成AIの利用による教材の作成、講義から自主学習への移行など、負荷削減に効果的だといわれています。この目的に適したモデルも開発されています。
行政の情報提供
- オープンデータの利用拡大
オープンデータとして国や自治体が有する情報を公開して、国民、住民の活用を普及する政策が推進されています。従来は数値的情報が主でしたが、生成AIを利用することにより、文書資料を含めた、多様な検索・加工が進むと期待されています。
- 公共資料の提供方法
従来から博物館、美術館、図書館などが、多様な形式で資料を公開しています。これらを生成AI利用に適した形式にすることにより、利用者の利便、利用者の増大などが期待されています。
生成AIの限界
元資料の限界
生成AIは、事前に膨大な資料から作成したデータベースを利用して回答しているのですから、その知識は元資料に限定されます。
質問に関する分野の資料が少ないと、その回答は信頼性の低いものになります。現状では、生成AIは「わかりません」とはいわず、なんとなくもっともらしい内容を断定的に回答するクセ(?)があります。
元資料には信頼性が低いもの、誤りがあるものも混在します。AIの回答には、それがそのまま反映する可能性があります。さらには、元資料に偏りがある(独裁者に批判的な資料は使わないなど)と、一面的な回答になりやすくなります。
指示解釈の限界
人間同士でも、誤解なく相手に伝えることは困難です。生成AIは、用語間の関係を知っているだけで、用語の意味は知りません。まして質問の背景になる環境は理解していません。そのため、1回の質問で期待する回答が得られるのは稀だともいえます。
対話型生成AIでは、質問を言い換えたり追加の質問ができるのが特徴ですので、この限界をかなり解決します。しかし、効率よく求めるには、質問の工夫が必要です。それには、言語学や認知工学、生成AIの理解などが必要になります。適切な質問(プロンプト)にするテクニックをプロンプトエンジニアリングといいます。
根拠追跡性の限界
生成AIの内部では複雑なニューロネットワークが用いているので、回答が得られた根拠を示すのが困難です(参考文献のURLを表示する生成AIもあります)。
信頼性を確認するには、質問を変えてみるとか、この生成AIを離れて検索エンジンなどで確認する必要があります。
いずれにせよ「AIの回答だから正しい」と考えるのは正しくありません。
生成AIの問題点
シンギュラリティ
シンギュラリティ (singularity) とは、ITの急速な進化により、社会が根本的に変化すること。特に、ディープラーニングの急速な普及により、2045年にはAIが人間知能を超え、多くの分野で人間がAIに置き換わる(失業する)という「2045年問題」が深刻な問題となりました。
その後の対話型生成AIの出現は、その現実性をさらに高めています(当然、反論もあります)。
反社会的情報の拡散
以前からWebサイトには「爆弾の作成方法」「児童ポルノ」など多くの反社会的情報が存在し社会問題になっていました。生成AIの普及は、ITの素人でも容易にこれらの情報を入手できるようになり、問題が深刻化しています。
大きな話題になったのがフェイク動画です。例えば、大統領の姿や声を盗用して、事実と異なる発言をする動画が生成され、SNSで急速に拡散されるようになりました。しかも、素人には真偽が判別できない出来栄え(?)のものもあり、それが真実だと信じる人も出てきました。選挙や戦争では、政治的な世論誘導に使われ、強力な武器になってきました。
著作権問題
現在広く利用されている大規模な生成AIでは、元資料の大部分はWeb情報です。これらには作成者の著作権があります。検索エンジンでの対象になるのはさほど問題になりませんが、生成AIにより、勝手に利用されるのは著作権の侵害になる可能性があります。
まして、歪曲した加工をされた場合は、原作者は大きな被害を被る危険性があります。
生成AIによる生成物の著作や発明の権利は作成者に属すると断定してよいかについてもグレーゾーンがあります。
個人情報保護
「○〇氏の学生時代の交友関係」のような検索にマッチするWebページが存在する確率は小さいでしょうが、生成AIでは、膨大な資料を参照するので、いもづる的に探して回答することがでます。
これ自体でも、個人情報保護に抵触しそうです。しかも、信頼性のない内容になる確率が大きいでしょう、まして、同一姓名の他人がいたら、事実とは全く異なる結果になりかねません。
教育での問題
教育現場では、宿題やレポートを、生成AIの結果をそのままコピーして提出する学生がいることが問題になっています。
従来は、読書感想文や単純な課題レポートなどが主でしたが、現在の生成AIでは、数学の文章問題を問題の分析や解に至る過程まで回答するとか、プログラム作成問題にアルゴリズムとソースコードを生成するなどができるようになってきました。
「AIに関する暫定的な論点整理」2023年
総務省 AI戦略会議「AIに関する暫定的な論点整理」2023年では、次のリスクを掲げています。
- 機密情報の漏洩や個人情報の不適正な利用のリスク
検索対象者の情報は、単なるキーワード検索よりも総合的な情報になる。
何を検索したかの情報がAIに取り込まれるリスクがある。
- 犯罪の巧妙化・容易化につながるリスク
生成AIにより生成された精緻な画像・音声や巧妙な文章が、オレオレ詐欺等に利用される可能性がある。
武器、大麻や覚醒剤、麻薬の製造法等の情報が犯罪につながる可能性がある。
- 偽情報等が社会を不安定化・混乱させるリスク
画像加工などディープ・フェイクが簡単にできる。
- サイバー攻撃が巧妙化するリスク
チェックツールで検知しにくい攻撃メールの作成などが増加する。
- 教育現場における生成AIの扱い
生徒の宿題や学生のレポートなどに使われるリスクがある。
- 著作権侵害のリスク
オリジナルに類似した著作物を生成する機会が増加する。
映像制作の効率化のため、クリエーターの権利が部分化される。
- AIによる失業者増大のリスク
文書作成、画像制作など、より広い分野・職種で(創作・創造的な業務においても)失業者が増える懸念がある。
著名な生成AIでは、このような指摘に関して、自主的に悪用禁止機能(ガードレール)などを装備して、リスクに対応しつつあります。
しかし、あえて対応しない悪質なものが流布しており、ITの初心者でも簡単にフェイク動画やウイルスなどの作成などができる環境です。この環境を変えるためにも法的規制が求められています。
AI(生成AI)法的規制の動向
広島AIプロセス(2023年)
2023年に広島で開催されたG7サミットにおいて、生成AIに関する国際的なルールの検討を行うための「広島AIプロセス」の立ち上げが決定し、「包括的政策枠組み」と「前進させるための作業計画」が承認されました。
[全てのAI関係者向けの広島プロセス国際指針の12項目]
- 高度なAIシステムの市場投入前及び、高度なAIシステムの開発を通じて、AIライフサイクルにわたるリスクを特定、評価、低減するための適切な対策を実施する。
- 市場投入後に脆弱性、インシデント、悪用パターンを特定し、低減する。
- 十分な透明性の確保や説明責任の向上のため、高度なAIシステムの能力、限界、適切・不適切な利用領域を公表する。
- 産業界、政府、市民社会、学術界を含む関係組織間で、責任ある情報共有とインシデント報告に努める。
- リスクベースのアプローチに基づいたAIのガバナンスとリスク管理ポリシーを開発、実践、開示する。特に高度AIシステムの開発者向けの、プライバシーポリシーやリスクの低減手法を含む。
- AIのライフサイクル全体にわたり、物理的セキュリティ、サイバーセキュリティ及び内部脅威対策を含む強固なセキュリティ管理措置に投資し、実施する。
- AIが生成したコンテンツを利用者が識別できるように、電子透かしやその他の技術等、信頼性の高いコンテンツ認証および証明メカニズムを開発する。またその導入が奨励される。
- 社会、安全、セキュリティ上のリスクの低減のための研究を優先し、効果的な低減手法に優先的に投資する。
- 気候危機、健康・教育などの、世界最大の課題に対処するため、高度なAIシステムの開発を優先する。
- 国際的な技術標準の開発と採用を推進する
- 適切なデータ入力措置と個人情報及び知的財産の保護を実施する。
- 偽情報の拡散等のAI固有リスクに関するデジタルリテラシーの向上や脆弱性の検知への協力と情報共有等、高度なAIシステムの信頼でき責任ある利用を促進し、貢献する。
米国の大統領令EO(2023年)
バイデン政権は2023年に「The Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence」1(人工知能の安全・安心・信頼できる開発と利用に関する大統領令)を発令しました。略してEOといわれています。
- AI技術の安全・安心の確保
- イノベーションと競争力強化
- 労働者支援
- 公平と公民権推進
- 消費者、患者、交通機関利用者、学生の保護
- プライバシー保護
- 連邦政府のAI活用推進
- 米国の国際的リーダーシップ推進
- 導入推進(EO導入のためのホワイトハウスAI評議会の設置)
このうち「AI技術の安全・安心の確保」では、次のような事項が求められています。
- 基盤モデルなど最も強力なAIシステムの開発者に対してレッドチーム結果などを連邦政府と共有することを義務付け
- AIシステムの安全性、セキュリティなどを確保する標準を制定
- 新しい基準を開発し、AIを使用して危険な生物学的物質を製造するリスクから保護
- AIのアウトプットに関する認証基準とベストプラクティスを確立し、詐欺などから保護
- 脆弱性を発見、修正するAIツールを開発し、サイバーセキュリティの向上を促進
- AIと安全保障に関する文書を作成し、情報機関などのAIの倫理的使用を保障
EUのAI法(2024年成立、2016年本格的適用)
EUでは以前から、人権や環境への関心や巨大IT企業の競争回避行動への批判が強かったのですが、AIについても以前から議論が行われてきました。このAI法はAI規制に関する世界最初の法律です。
法律の適用は広範囲で域外企業の現地事業所やAIモデルなどの対象になります。違反や不遵守に対する制裁金が高いのも特徴です。例えば「許容できないリスク」では4千万ユーロまたは全世界売上高の7%の高い方とされいています。そのため、日本企業にとって、AI法への関心が高まっています。
対象をリスクベースでの4分類(許容できないリスク、ハイリスク、限定リスク、最小リスク)、ファンダメンタルモデル、イノベーション支援にわけています。
- 許容できないリスク
EUの価値観と矛盾するAIは禁止されます。
潜在意識への操作、社会的スコアリング、不特定多数対象の顔認証データベース化など
- ハイリスク
甚大な被害を及ぼす分野でのAIは、要件と事前適合性評価の準拠が求められます。
生体、重要インフラ、教育、雇用等の分野
、健康・安全・基本的権利・環境などの分野
- 限定リスク
リスクは限定的だが、透明性義務が適用されるAI
自然人との相互作用、感情推定や生体情報による分類
ディープフェイクの生成・操作のシステム
- 最小リスク
上記以外のAIシステムには制限をつけない
- ファンダメンタルモデル
ファンダメンタルモデルとは、汎用的な生成AIモデルのような、広く用いられるAIの基盤となるモデルのことです。
これを利用した個別AIモデル提供者を規制するだけでは限界があり、ファンダメンタルモデルのリスクを法案上で明確化するとともに、モデル提供者とその利用についての要求事項・義務が追加されています。
・基本的権利などに対するリスクを開発前、開発中からコントロールすることに努める
・下流の開発者が法令遵守できるように技術文書を用意する
・ハイリスクAIシステム同様に、データベース登録や透明性の義務を遵守する
- イノベーション支援
AI法では、AIの開発・利用を活性化するイノベーション支援の観点も示しています。
そのうち、規制への準拠性検証も含めたAIテストを所管機関の監督・指導のもとで行うサンドボックス環境を整備して、公益性の高い情報の公開や小規模提供者の支援に役立てるとしています。
日本でのAI政策
日本でも以前からAIの活用推進、リスクへの規制などが大きな政策の一つとして取り上げられてきました。広島AIプロセスの策定でも日本は議長国としてリーダーシップをとってきました。総務省や経済産業省では民間の力も入れて、いくつかの利活用の原則やガイドラインを策定してきました。しかし、法制整備の面では後れをとっており、今後の努力が期待されている状況です。
ここでは、総務省と経済産業省が2024年に策定した
「AI事業者ガイドライン(第1.0版)」を取り上げます。
AIがもたらす社会的リスクの低減を図るとともに、AIのイノベーション及び
活用を促進していくために、関係者による自主的な取組を促すことが目的ですが、細かな規制を設けたのでは、かえってイノベーションを阻害する懸念もあるので、非拘束的なガイドラインとしたものです。
ガイドラインの構成
「事業者」ガイドラインですが、ここではその対象者を「AIの事業活動を担う主体」として、次の3つに大別しています。機能による区分であり、同一事業者が複数の立場になることもあります。
- AI開発者(AI Developer)
AIシステムのアルゴリズム、知識データベースの作成など基盤となるモデルを開発する事業者(研究者)も含む。
- AI提供者(AI Provider)
開発されたAIモデルをベースに、利用者のニーズに適したカスタマイズをして提供する事業者。サービス提供における運用や運用支援も行う。
- AI利用者(AI Business User)
事業活動において、AIシステム又はAIサービスを利用する事業者。ユーザ部門やシステム部門などが相当。適正利用の任務を持つ。
A:基本理念
・人間の尊厳が尊重される社会(創造性の発揮や人間の尊厳の尊重など)
・多様な背景を持つ人々が多様な幸せを追求できる社会
・持続可能な社会(Sustainability)(格差解消、環境保全など)
C:共通の指針
・下表の右項目の説明。特に生成AIでは回答がブラックボックスになりやすい
透明性とアカウンタビリティ(トレーサビリティ)の確保が重要になる。
E:AIガバナンスの構築
・AI利用はプラスの面でもマイナスの面でも影響が大きいのでガバナンスが重要
・変化が激しいのでPDCAサイクルによるマネジメントが重要
共通の指針と3主体に求められる事項の関係
人工知能(AI)へ