コンテンツにスキップ

AI(人工知能)の利活用

AI(人工知能)は、いまや私たちの日常生活やビジネスのあらゆる場面で活用されています。スマートフォンの音声アシスタント、ネットショッピングのおすすめ機能、自動翻訳など、意識しないうちにAIの恩恵を受けている場面は数多くあります。この章では、AIの基本的な仕組みと種類、活用領域、そしてAIを社会で安全に利活用するための原則や倫理的な留意事項を学びます。

AIは、その能力の範囲によって大きく2つに分類されます。

種類説明具体例
特化型AI特定のタスクに特化して高い性能を発揮するAI将棋AI、画像認識AI、音声認識AI
汎用AI人間のようにあらゆる知的タスクをこなせるAI現時点では実現していない

現在、私たちが利用しているAIはすべて特化型AIです。囲碁で世界チャンピオンに勝つAIであっても、料理のレシピを考えることはできません。一方、汎用AIは人間と同等以上の汎用的な知能を持つAIですが、まだ研究段階であり実用化されていません。

試験で出るポイント

「現在実用化されているAIは特化型AIである」という点はよく問われます。「AIはすでに人間を超えた万能な存在である」という選択肢は誤りです。

AIが賢くなるためには、大量のデータから「学習」する必要があります。この学習の仕組みが機械学習です。機械学習には、大きく3つのアプローチがあります。

教師あり学習は、「正解ラベル」が付いたデータをAIに与えて学習させる方法です。たとえば、大量の犬と猫の写真に「犬」「猫」というラベルを付けて学習させると、AIは新しい写真を見たときに犬か猫かを判別できるようになります。迷惑メールの判定や、売上予測などに使われます。

教師なし学習は、正解ラベルなしのデータからAIが自らパターンや構造を見つけ出す方法です。顧客の購買データを分析して似た傾向を持つグループに分類する(クラスタリング)といった用途に使われます。

強化学習は、AIが試行錯誤を繰り返しながら「報酬」を最大化する行動を学習する方法です。将棋AIやロボットの制御などに使われます。「勝てば報酬、負ければペナルティ」のように、結果に応じてAIが自ら行動を改善していきます。

学習手法特徴活用例
教師あり学習正解ラベル付きデータで学習迷惑メール判定、売上予測
教師なし学習正解なしでパターンを発見顧客のグループ分け
強化学習報酬を最大化する行動を学習将棋AI、自動運転

ニューラルネットワークとディープラーニング

Section titled “ニューラルネットワークとディープラーニング”

ニューラルネットワークとは、人間の脳の神経回路(ニューロン)の仕組みを模倣した計算モデルです。入力層・中間層・出力層という構造を持ち、データを受け取って処理し、結果を出力します。

ディープラーニング(深層学習)は、ニューラルネットワークの中間層を何層にも重ねた(=深くした)手法です。層を深くすることで、画像や音声などの複雑なデータから高度な特徴を自動的に抽出できるようになりました。近年のAI技術の飛躍的な発展は、このディープラーニングの進歩によるところが大きいです。

試験で出るポイント

「ディープラーニングはニューラルネットワークを多層にした手法である」という定義は頻出です。「ディープラーニング=機械学習の一種」という包含関係も押さえておきましょう。

AIはさまざまな分野で活用されています。代表的な活用領域を整理しましょう。

AIによる認識とは、AIが画像・音声・テキストなどのデータを理解・判別する技術です。

  • 画像認識: 写真や動画の中から人の顔、文字、物体などを識別する技術です。顔認証によるスマートフォンのロック解除や、工場での製品の外観検査に使われます。
  • 音声認識: 人の声をテキストに変換する技術です。スマートスピーカーや会議の自動文字起こしに活用されています。
  • 自然言語処理: 人間が使う言葉(自然言語)をコンピュータが理解・生成する技術です。機械翻訳や文章の要約、感情分析などに使われます。

AIによる自動化とは、これまで人間が行っていた判断や作業をAIが代行する仕組みです。工場の品質検査の自動化、自動運転、物流倉庫でのロボットによるピッキングなどが該当します。

AIアシスタントとは、AIが人間の作業を支援するシステムです。スマートフォンの音声アシスタント(Siri、Googleアシスタントなど)のほか、以下のようなものがあります。

  • チャットボット: AIがテキストや音声で自動的に会話を行うプログラムです。企業のWebサイトでの問い合わせ対応やカスタマーサポートに使われます。
  • ロボアドバイザ: AIが投資家のリスク許容度や目標に応じて、最適な資産運用プランを自動で提案するサービスです。

試験で出るポイント

AI・IoT・RPAの違いを問う問題が頻出です。AIは「学習・判断」、IoTは「モノとインターネットの接続」、RPAは「定型業務の自動化」という特徴の違いを押さえましょう。

生成AI(Generative AI)は、テキスト、画像、音声、プログラムコードなど、新しいコンテンツを自動的に生成できるAIです。ChatGPTやStable Diffusionなどが代表例です。2022年以降、急速に普及し、ビジネスや教育など幅広い分野で活用が進んでいます。

マルチモーダルAIとは、テキスト・画像・音声・動画など、複数の種類(モーダル)のデータを統合的に扱えるAIです。たとえば、画像を見せて「この写真に何が写っていますか?」とテキストで質問すると、画像の内容をテキストで回答できます。

生成AIの出力にはランダム性が含まれます。同じ質問をしても、毎回まったく同じ回答が返ってくるとは限りません。これは、生成AIが確率的にテキストを生成する仕組みを持っているためです。この特性を理解し、出力を鵜呑みにせず確認することが重要です。

ハルシネーション(幻覚)とは、生成AIがもっともらしいが事実と異なる情報を生成してしまう現象です。たとえば、実在しない論文を引用したり、架空の人物の経歴を作り上げたりすることがあります。生成AIの出力は「常に事実のみを出力する」わけではなく、必ず人間が事実確認を行う必要があります。

ディープフェイクとは、ディープラーニング技術を使って、実在する人物の顔や声を精巧に合成・加工した偽の画像・動画・音声のことです。本人が言っていないことをあたかも発言したかのように見せる動画を作成するなど、悪用されるリスクがあります。フェイクニュースの拡散や詐欺に利用される恐れがあり、社会的な問題となっています。

試験で出るポイント

「生成AIは事実のみを出力する」は誤りです。ハルシネーションにより事実と異なる情報を生成する可能性があることを理解しましょう。2025年以降、生成AI関連の出題が急増しています。

AIの利活用に関する原則・ガイドライン

Section titled “AIの利活用に関する原則・ガイドライン”

AIは強力な技術ですが、使い方を誤ると差別や人権侵害につながる恐れもあります。そのため、国や学会がAIの適切な利活用のための原則やガイドラインを策定しています。

人間中心のAI社会原則は、日本政府(統合イノベーション戦略推進会議)が2019年に策定した、AI社会の実現に向けた7つの原則です。「AIはあくまで人間のために使われるべきである」という基本理念に基づいています。

No.原則要旨
1人間中心の原則AIは人間の基本的人権を侵さず、人間のために利用されるべき
2教育・リテラシーの原則人々がAIを正しく理解し活用するための教育が必要
3プライバシー確保の原則個人のプライバシーが侵害されないようにする
4セキュリティ確保の原則AIのセキュリティを適切に確保する
5公正競争確保の原則AIを活用した不公正な競争が行われないようにする
6公平性、説明責任及び透明性の原則AIの判断が公平であり、その理由を説明できるようにする
7イノベーションの原則AIの研究開発を推進し、社会にイノベーションをもたらす

試験で出るポイント

7原則すべてを暗記する必要はありませんが、「人間中心」という基本理念と、「AIが自律的にすべてを判断すべき」は原則に反するという点を押さえましょう(2022〜2024年に複数回出題)。

AI利活用ガイドライン(AI利活用原則)

Section titled “AI利活用ガイドライン(AI利活用原則)”

AI利活用ガイドラインは、総務省が策定した、AIサービスの利用者やサービス提供者が守るべき原則をまとめたガイドラインです。AI利活用原則として、適正利用、適正学習、連携、安全、セキュリティ、プライバシー、尊厳・自律、公平性、透明性、アカウンタビリティ(説明責任)の10原則が定められています。

信頼できるAIのための倫理ガイドライン

Section titled “信頼できるAIのための倫理ガイドライン”

信頼できるAIのための倫理ガイドラインは、EU(欧州連合)が策定した国際的なAI倫理の指針です。AIが信頼されるために必要な要件として、人間の関与・監視、技術的堅牢性・安全性、プライバシー・データガバナンスなどを定めています。

人工知能学会倫理指針は、日本の人工知能学会が策定した、AI研究者・技術者が守るべき倫理的な行動指針です。研究の公正性、社会への貢献、説明責任などが定められています。

AIを安全かつ適切に活用するために、いくつかの重要な留意事項があります。

AIの判断には、意図せず偏り(バイアス)が含まれることがあります。バイアスには主に2つの種類があります。

  • AIユーザの関与によるバイアス: 学習データの収集や選別において、人間の先入観や偏りが反映されてしまうバイアスです。たとえば、採用AIの学習データが過去の採用実績(男性中心)に偏っていると、AIも男性を優先する判断をしてしまうことがあります。
  • アルゴリズムのバイアス: AIの設計やアルゴリズム自体に含まれる構造的な偏りです。特定の条件を重視するよう設計された結果、公平でない判断が行われる可能性があります。

説明可能なAI(XAI: eXplainable AI)とは、AIがなぜその判断に至ったのか、理由や根拠を人間にわかりやすく説明できるAIのことです。ディープラーニングなどの高度なAIは、判断過程がブラックボックスになりやすいため、医療診断や融資審査など、判断の根拠が重要な場面ではXAIの技術が求められています。

ヒューマンインザループ(HITL)

Section titled “ヒューマンインザループ(HITL)”

ヒューマンインザループ(HITL: Human In The Loop)とは、AIの処理プロセスの中に人間による確認・判断のステップを組み込む仕組みです。AIに完全に任せるのではなく、重要な場面では人間が介在して最終判断を行うことで、AIの誤りを防ぎ、安全性や信頼性を確保します。

AIサービスの責任論とトロッコ問題

Section titled “AIサービスの責任論とトロッコ問題”

AIが誤った判断をした場合、その責任は誰が負うのでしょうか。これがAIサービスの責任論です。AI自体には法的責任を負う能力がないため、開発者・提供者・利用者のうち誰が責任を負うかは、状況に応じて議論が必要です。

この問題を象徴するのがトロッコ問題です。トロッコ問題とは、「暴走するトロッコの前に5人がいて、進路を変えれば1人が犠牲になる。どちらを選ぶべきか?」という倫理的ジレンマです。自動運転AIが事故を避けられない状況でどう判断すべきか、という場面に置き換えて議論されます。AIに倫理的判断を任せることの難しさを示す代表的な事例です。

AIサービスのオプトアウトポリシー

Section titled “AIサービスのオプトアウトポリシー”

AIサービスのオプトアウトポリシーとは、AIサービスが自分のデータを学習や分析に利用することを、利用者が拒否(オプトアウト)できる仕組み・方針のことです。利用者のプライバシーや自己決定権を守るために重要な考え方です。たとえば、生成AIサービスの中には、ユーザが入力した内容をAIの学習に使わないよう設定できるものがあります。

試験で出るポイント

バイアス・XAI・HITLは近年の頻出テーマです。「AIがすべてを自律的に判断すべき」という選択肢は誤りであり、「人間の関与(HITL)」が重要である点を押さえましょう。

最後に、さまざまな分野でのAI活用事例を整理します。

分野活用例使われている技術
小売・マーケティング売上予測、需要予測機械学習(教師あり学習)
金融ロボアドバイザによる資産運用提案機械学習
医療画像診断支援(レントゲン・CTの異常検出)ディープラーニング・画像認識
カスタマーサポートチャットボットによる自動応答自然言語処理
製造製品の外観検査、異常検知画像認識・機械学習
コンテンツ制作文章・画像・コードの自動生成生成AI

試験で出るポイント

AIの活用事例を問う問題では、「どの技術がどの場面で使われるか」の対応関係が問われます。とくにロボアドバイザ(金融)、チャットボット(カスタマーサポート)、画像認識(医療・製造)は頻出です。AI・IoT・RPAの違いを問う引っかけにも注意しましょう。

アプリで問題を解こう!