AI(人工知能)の利活用
AI(人工知能)は、いまや私たちの日常生活やビジネスのあらゆる場面で活用されています。スマートフォンの音声アシスタント、ネットショッピングのおすすめ機能、自動翻訳など、意識しないうちにAIの恩恵を受けている場面は数多くあります。この章では、AIの基本的な仕組みと種類、活用領域、そしてAIを社会で安全に利活用するための原則や倫理的な留意事項を学びます。
AIの種類 ── 特化型AIと汎用AI
Section titled “AIの種類 ── 特化型AIと汎用AI”AIは、その能力の範囲によって大きく2つに分類されます。
| 種類 | 説明 | 具体例 |
|---|---|---|
| 特化型AI | 特定のタスクに特化して高い性能を発揮するAI | 将棋AI、画像認識AI、音声認識AI |
| 汎用AI | 人間のようにあらゆる知的タスクをこなせるAI | 現時点では実現していない |
現在、私たちが利用しているAIはすべて特化型AIです。囲碁で世界チャンピオンに勝つAIであっても、料理のレシピを考えることはできません。一方、汎用AIは人間と同等以上の汎用的な知能を持つAIですが、まだ研究段階であり実用化されていません。
試験で出るポイント
AIの学習手法
Section titled “AIの学習手法”AIが賢くなるためには、大量のデータから「学習」する必要があります。この学習の仕組みが機械学習です。機械学習には、大きく3つのアプローチがあります。
教師あり学習
Section titled “教師あり学習”教師あり学習は、「正解ラベル」が付いたデータをAIに与えて学習させる方法です。たとえば、大量の犬と猫の写真に「犬」「猫」というラベルを付けて学習させると、AIは新しい写真を見たときに犬か猫かを判別できるようになります。迷惑メールの判定や、売上予測などに使われます。
教師なし学習
Section titled “教師なし学習”教師なし学習は、正解ラベルなしのデータからAIが自らパターンや構造を見つけ出す方法です。顧客の購買データを分析して似た傾向を持つグループに分類する(クラスタリング)といった用途に使われます。
強化学習は、AIが試行錯誤を繰り返しながら「報酬」を最大化する行動を学習する方法です。将棋AIやロボットの制御などに使われます。「勝てば報酬、負ければペナルティ」のように、結果に応じてAIが自ら行動を改善していきます。
| 学習手法 | 特徴 | 活用例 |
|---|---|---|
| 教師あり学習 | 正解ラベル付きデータで学習 | 迷惑メール判定、売上予測 |
| 教師なし学習 | 正解なしでパターンを発見 | 顧客のグループ分け |
| 強化学習 | 報酬を最大化する行動を学習 | 将棋AI、自動運転 |
ニューラルネットワークとディープラーニング
Section titled “ニューラルネットワークとディープラーニング”ニューラルネットワークとは、人間の脳の神経回路(ニューロン)の仕組みを模倣した計算モデルです。入力層・中間層・出力層という構造を持ち、データを受け取って処理し、結果を出力します。
ディープラーニング(深層学習)は、ニューラルネットワークの中間層を何層にも重ねた(=深くした)手法です。層を深くすることで、画像や音声などの複雑なデータから高度な特徴を自動的に抽出できるようになりました。近年のAI技術の飛躍的な発展は、このディープラーニングの進歩によるところが大きいです。
試験で出るポイント
AIの活用領域
Section titled “AIの活用領域”AIはさまざまな分野で活用されています。代表的な活用領域を整理しましょう。
AIによる認識
Section titled “AIによる認識”AIによる認識とは、AIが画像・音声・テキストなどのデータを理解・判別する技術です。
- 画像認識: 写真や動画の中から人の顔、文字、物体などを識別する技術です。顔認証によるスマートフォンのロック解除や、工場での製品の外観検査に使われます。
- 音声認識: 人の声をテキストに変換する技術です。スマートスピーカーや会議の自動文字起こしに活用されています。
- 自然言語処理: 人間が使う言葉(自然言語)をコンピュータが理解・生成する技術です。機械翻訳や文章の要約、感情分析などに使われます。
AIによる自動化
Section titled “AIによる自動化”AIによる自動化とは、これまで人間が行っていた判断や作業をAIが代行する仕組みです。工場の品質検査の自動化、自動運転、物流倉庫でのロボットによるピッキングなどが該当します。
AIアシスタント
Section titled “AIアシスタント”AIアシスタントとは、AIが人間の作業を支援するシステムです。スマートフォンの音声アシスタント(Siri、Googleアシスタントなど)のほか、以下のようなものがあります。
- チャットボット: AIがテキストや音声で自動的に会話を行うプログラムです。企業のWebサイトでの問い合わせ対応やカスタマーサポートに使われます。
- ロボアドバイザ: AIが投資家のリスク許容度や目標に応じて、最適な資産運用プランを自動で提案するサービスです。
試験で出るポイント
生成AI(Generative AI)
Section titled “生成AI(Generative AI)”生成AI(Generative AI)は、テキスト、画像、音声、プログラムコードなど、新しいコンテンツを自動的に生成できるAIです。ChatGPTやStable Diffusionなどが代表例です。2022年以降、急速に普及し、ビジネスや教育など幅広い分野で活用が進んでいます。
マルチモーダルAI
Section titled “マルチモーダルAI”マルチモーダルAIとは、テキスト・画像・音声・動画など、複数の種類(モーダル)のデータを統合的に扱えるAIです。たとえば、画像を見せて「この写真に何が写っていますか?」とテキストで質問すると、画像の内容をテキストで回答できます。
生成AIの出力にはランダム性が含まれます。同じ質問をしても、毎回まったく同じ回答が返ってくるとは限りません。これは、生成AIが確率的にテキストを生成する仕組みを持っているためです。この特性を理解し、出力を鵜呑みにせず確認することが重要です。
ハルシネーション
Section titled “ハルシネーション”ハルシネーション(幻覚)とは、生成AIがもっともらしいが事実と異なる情報を生成してしまう現象です。たとえば、実在しない論文を引用したり、架空の人物の経歴を作り上げたりすることがあります。生成AIの出力は「常に事実のみを出力する」わけではなく、必ず人間が事実確認を行う必要があります。
ディープフェイク
Section titled “ディープフェイク”ディープフェイクとは、ディープラーニング技術を使って、実在する人物の顔や声を精巧に合成・加工した偽の画像・動画・音声のことです。本人が言っていないことをあたかも発言したかのように見せる動画を作成するなど、悪用されるリスクがあります。フェイクニュースの拡散や詐欺に利用される恐れがあり、社会的な問題となっています。
試験で出るポイント
AIの利活用に関する原則・ガイドライン
Section titled “AIの利活用に関する原則・ガイドライン”AIは強力な技術ですが、使い方を誤ると差別や人権侵害につながる恐れもあります。そのため、国や学会がAIの適切な利活用のための原則やガイドラインを策定しています。
人間中心のAI社会原則
Section titled “人間中心のAI社会原則”人間中心のAI社会原則は、日本政府(統合イノベーション戦略推進会議)が2019年に策定した、AI社会の実現に向けた7つの原則です。「AIはあくまで人間のために使われるべきである」という基本理念に基づいています。
| No. | 原則 | 要旨 |
|---|---|---|
| 1 | 人間中心の原則 | AIは人間の基本的人権を侵さず、人間のために利用されるべき |
| 2 | 教育・リテラシーの原則 | 人々がAIを正しく理解し活用するための教育が必要 |
| 3 | プライバシー確保の原則 | 個人のプライバシーが侵害されないようにする |
| 4 | セキュリティ確保の原則 | AIのセキュリティを適切に確保する |
| 5 | 公正競争確保の原則 | AIを活用した不公正な競争が行われないようにする |
| 6 | 公平性、説明責任及び透明性の原則 | AIの判断が公平であり、その理由を説明できるようにする |
| 7 | イノベーションの原則 | AIの研究開発を推進し、社会にイノベーションをもたらす |
試験で出るポイント
AI利活用ガイドライン(AI利活用原則)
Section titled “AI利活用ガイドライン(AI利活用原則)”AI利活用ガイドラインは、総務省が策定した、AIサービスの利用者やサービス提供者が守るべき原則をまとめたガイドラインです。AI利活用原則として、適正利用、適正学習、連携、安全、セキュリティ、プライバシー、尊厳・自律、公平性、透明性、アカウンタビリティ(説明責任)の10原則が定められています。
信頼できるAIのための倫理ガイドライン
Section titled “信頼できるAIのための倫理ガイドライン”信頼できるAIのための倫理ガイドラインは、EU(欧州連合)が策定した国際的なAI倫理の指針です。AIが信頼されるために必要な要件として、人間の関与・監視、技術的堅牢性・安全性、プライバシー・データガバナンスなどを定めています。
人工知能学会倫理指針
Section titled “人工知能学会倫理指針”人工知能学会倫理指針は、日本の人工知能学会が策定した、AI研究者・技術者が守るべき倫理的な行動指針です。研究の公正性、社会への貢献、説明責任などが定められています。
AIの利活用における留意事項
Section titled “AIの利活用における留意事項”AIを安全かつ適切に活用するために、いくつかの重要な留意事項があります。
バイアス(偏り)の問題
Section titled “バイアス(偏り)の問題”AIの判断には、意図せず偏り(バイアス)が含まれることがあります。バイアスには主に2つの種類があります。
- AIユーザの関与によるバイアス: 学習データの収集や選別において、人間の先入観や偏りが反映されてしまうバイアスです。たとえば、採用AIの学習データが過去の採用実績(男性中心)に偏っていると、AIも男性を優先する判断をしてしまうことがあります。
- アルゴリズムのバイアス: AIの設計やアルゴリズム自体に含まれる構造的な偏りです。特定の条件を重視するよう設計された結果、公平でない判断が行われる可能性があります。
説明可能なAI(XAI)
Section titled “説明可能なAI(XAI)”説明可能なAI(XAI: eXplainable AI)とは、AIがなぜその判断に至ったのか、理由や根拠を人間にわかりやすく説明できるAIのことです。ディープラーニングなどの高度なAIは、判断過程がブラックボックスになりやすいため、医療診断や融資審査など、判断の根拠が重要な場面ではXAIの技術が求められています。
ヒューマンインザループ(HITL)
Section titled “ヒューマンインザループ(HITL)”ヒューマンインザループ(HITL: Human In The Loop)とは、AIの処理プロセスの中に人間による確認・判断のステップを組み込む仕組みです。AIに完全に任せるのではなく、重要な場面では人間が介在して最終判断を行うことで、AIの誤りを防ぎ、安全性や信頼性を確保します。
AIサービスの責任論とトロッコ問題
Section titled “AIサービスの責任論とトロッコ問題”AIが誤った判断をした場合、その責任は誰が負うのでしょうか。これがAIサービスの責任論です。AI自体には法的責任を負う能力がないため、開発者・提供者・利用者のうち誰が責任を負うかは、状況に応じて議論が必要です。
この問題を象徴するのがトロッコ問題です。トロッコ問題とは、「暴走するトロッコの前に5人がいて、進路を変えれば1人が犠牲になる。どちらを選ぶべきか?」という倫理的ジレンマです。自動運転AIが事故を避けられない状況でどう判断すべきか、という場面に置き換えて議論されます。AIに倫理的判断を任せることの難しさを示す代表的な事例です。
AIサービスのオプトアウトポリシー
Section titled “AIサービスのオプトアウトポリシー”AIサービスのオプトアウトポリシーとは、AIサービスが自分のデータを学習や分析に利用することを、利用者が拒否(オプトアウト)できる仕組み・方針のことです。利用者のプライバシーや自己決定権を守るために重要な考え方です。たとえば、生成AIサービスの中には、ユーザが入力した内容をAIの学習に使わないよう設定できるものがあります。
試験で出るポイント
AIの活用事例
Section titled “AIの活用事例”最後に、さまざまな分野でのAI活用事例を整理します。
| 分野 | 活用例 | 使われている技術 |
|---|---|---|
| 小売・マーケティング | 売上予測、需要予測 | 機械学習(教師あり学習) |
| 金融 | ロボアドバイザによる資産運用提案 | 機械学習 |
| 医療 | 画像診断支援(レントゲン・CTの異常検出) | ディープラーニング・画像認識 |
| カスタマーサポート | チャットボットによる自動応答 | 自然言語処理 |
| 製造 | 製品の外観検査、異常検知 | 画像認識・機械学習 |
| コンテンツ制作 | 文章・画像・コードの自動生成 | 生成AI |
試験で出るポイント