コンテンツにスキップ

AI(人工知能)の技術

AI(人工知能)は、ITパスポート試験のテクノロジ系で毎年4〜5問出題される最重要テーマの一つです。ここでは、AIの基本的な仕組みから、機械学習、ディープラーニング、大規模言語モデルまで、試験に必要な知識を体系的に学んでいきましょう。

AI(Artificial Intelligence:人工知能) とは、人間の知的な活動——学習する、判断する、言葉を理解する、画像を認識するといった能力——をコンピュータで実現する技術の総称です。

AIは私たちの日常生活にすでに広く浸透しています。スマートフォンの音声アシスタント、メールの迷惑メールフィルター、ECサイトのおすすめ商品表示など、いずれもAI技術が活用されています。

AIのアプローチには大きく分けて「ルールベース」と「機械学習」の2つがあります。次のセクションでこの2つを対比しながら理解しましょう。

ルールベースとは、人間があらかじめ「もし〇〇ならば△△する」というルール(規則)をプログラムとして記述し、AIに判断させる方法です。

たとえば、迷惑メールの判定を考えてみましょう。「件名に”当選”という文字が含まれていたら迷惑メール」「送信元が登録されていないアドレスなら迷惑メール」といったルールを人間が一つひとつ定義します。

ルールベースは仕組みがわかりやすく、判断の理由を説明しやすいという利点があります。しかし、判断対象が複雑になると、必要なルールの数が膨大になり、人間がすべてのケースを網羅するのが困難になるという欠点があります。

機械学習(Machine Learning)とは、コンピュータが大量のデータから自動的にパターンや規則性を学習する手法です。人間がルールを一つひとつ書くのではなく、データを与えることでコンピュータ自身がルールを見つけ出します。

ルールベースと機械学習の違いを整理すると、次のようになります。

項目ルールベース機械学習
ルールの作り方人間が定義するデータから自動的に学習する
複雑な判断への対応ルールが膨大になり困難大量のデータがあれば対応しやすい
判断理由の説明わかりやすい複雑で説明しにくい場合がある
必要なもの専門家の知識大量の学習データ

試験で出るポイント

ルールベースは「人間がルールを定義する」方式、機械学習は「データからコンピュータが自ら学習する」方式です。この対比は試験で問われやすいので、違いを明確に押さえましょう。

機械学習では、データの中から判断に役立つ情報を数値として取り出します。この数値のことを特徴量と呼びます。

たとえば、果物の画像から「りんご」か「みかん」かを分類するとき、「色の赤さ」「形の丸さ」「大きさ」といった数値が特徴量にあたります。どのような特徴量を選ぶかが、機械学習の精度に大きく影響します。

機械学習は、学習の方法によって大きく3つに分類されます。

教師あり学習とは、「正解ラベル付きのデータ」を使って学習する方法です。「このデータの正解はこれです」という「お手本」を大量に与えることで、コンピュータが入力と正解の関係を学びます。

教師あり学習には、大きく2つのタスクがあります。

  • 分類:データをカテゴリに分ける。たとえば、メールを「迷惑メール」か「正常なメール」かに分類する、製品を「良品」か「不良品」かに判定する
  • 回帰:数値を予測する。たとえば、過去の気温データから明日の気温を予測する、物件の情報から家賃を予測する

教師なし学習とは、正解ラベルのないデータを使って、データに潜むパターンや構造を自動的に発見する方法です。

教師なし学習の代表的な手法がクラスタリングです。クラスタリングとは、似た特徴を持つデータをグループ(クラスタ)にまとめることです。たとえば、ECサイトの購買データから「週末にまとめ買いする顧客」「平日に少額購入を繰り返す顧客」といったグループを自動的に発見できます。

強化学習とは、「試行錯誤」を通じて学習する方法です。AIが行動を選択し、その結果として得られる「報酬」を最大化するように学習を進めます。

わかりやすい例は、囲碁や将棋のAIです。一手打つごとに「勝ちに近づいたか(報酬が高い)」「負けに近づいたか(報酬が低い)」を評価し、より良い手を選べるように学習していきます。ロボットの歩行制御や自動運転などにも応用されています。

学習の種類学習データ目的具体例
教師あり学習正解ラベル付きデータ分類・回帰迷惑メール判定、不良品検出
教師なし学習ラベルなしデータパターン発見顧客のクラスタリング
強化学習報酬(フィードバック)報酬の最大化囲碁AI、自動運転

試験で出るポイント

教師あり学習は「正解ラベル付きデータで分類・回帰を行う」、教師なし学習は「ラベルなしデータでクラスタリングなどを行う」、強化学習は「報酬を最大化するように試行錯誤する」と整理しましょう。2024年の試験では、分類・回帰・クラスタリングを正しく対応させる穴埋め問題が出題されました。

ニューラルネットワークの仕組み

Section titled “ニューラルネットワークの仕組み”

ニューラルネットワークとは、人間の脳の神経回路(ニューロンのつながり)の仕組みをコンピュータで模したモデルです。

人間の脳では、多数の神経細胞(ニューロン)が互いにつながり、電気信号を伝え合うことで情報を処理しています。ニューラルネットワークはこの仕組みを模倣し、人工的なニューロンを多数つなげてデータを処理します。

ニューラルネットワークは一般に、次の3つの層で構成されます。

  1. 入力層:外部からデータを受け取る層
  2. 中間層(隠れ層):データを加工・変換する層
  3. 出力層:最終的な結果を出力する層

各ニューロンは、前の層から受け取った値をもとに計算を行い、次のニューロンに渡す値を出力します。このとき、入力値を変換して出力値を決める関数を活性化関数(活性関数)と呼びます。

活性化関数は、ニューラルネットワークが複雑なパターンを学習できるようにするために欠かせない仕組みです。もし活性化関数がなければ、どれだけ層を重ねても単純な計算しかできません。活性化関数があることで、ニューラルネットワークは複雑な判断ができるようになります。

試験で出るポイント

活性化関数は「入力された値を基に計算し、次のニューロンに渡す値を出力する関数」です。2023年の試験で出題されました。

ニューラルネットワークが学習するとき、最初は正しい結果を出せません。そこで、出力結果と正解の「ずれ(誤差)」を計算し、その誤差を出力層から入力層へ向かって逆方向に伝えながら、各ニューロン間のつながりの強さ(重み)を調整していきます。この学習方法をバックプロパゲーション(誤差逆伝播法)と呼びます。

「バック(back=後ろへ)」「プロパゲーション(propagation=伝播)」という名前のとおり、誤差を逆方向に伝えることで効率的に学習を進める手法です。

ディープラーニング(深層学習)とは、ニューラルネットワークの中間層を何層にも深く重ねた構造(ディープニューラルネットワーク)を使った機械学習の手法です。

従来の機械学習では、人間が「どの特徴量に注目するか」を設計する必要がありました。たとえば、画像から猫を認識するために「耳の形」「ひげの有無」といった特徴量を人間が選ぶ必要がありました。

ディープラーニングの大きな特徴は、データから特徴量を自動的に抽出できる点です。大量の画像データを与えるだけで、ディープラーニングは自ら「ここに注目すればよい」という特徴を見つけ出します。これにより、画像認識、音声認識、自然言語処理といった分野で飛躍的な精度向上が実現しました。

試験で出るポイント

ディープラーニングは「ニューラルネットワークを用いて、データから自ら規則性や特徴を見つけ出し、推論や判断を行う」技術です。2022年・2024年・2025年の試験で繰り返し出題されています。「特徴量を自動抽出できる」点が最大のポイントです。

ディープラーニングをはじめとするAI技術は、さまざまな分野で応用されています。

  • 画像認識:写真や動画の中の物体・人物を識別する(例:顔認証、自動運転での障害物検知)
  • 音声認識:人間の話した言葉を認識し、テキストに変換する(例:スマートスピーカー、音声入力)
  • 自然言語処理:人間の言葉(自然言語)をコンピュータが理解・生成する(例:翻訳、チャットボット)
  • 音声合成:テキストから人間のような音声を生成する(例:ナビゲーションの音声案内)
  • 画像生成:テキストの指示や学習データをもとに新しい画像を生成する

試験で出るポイント

音声認識は「音声をテキストに変換する」技術です。音声合成(テキストから音声を生成)と混同しないように注意しましょう。2024年の試験で出題されました。

ディープラーニングには、扱うデータの種類に応じたさまざまなネットワーク構造があります。ここでは試験に出る代表的な3つを紹介します。

畳込みニューラルネットワーク(CNN)

Section titled “畳込みニューラルネットワーク(CNN)”

畳込みニューラルネットワークCNN: Convolutional Neural Network)は、主に画像認識に適したネットワーク構造です。

CNNは、画像の中から「エッジ(輪郭)」「テクスチャ(質感)」「形状」といった特徴を段階的に抽出していきます。最初の層では単純な特徴(線や色の変化)を捉え、層が深くなるにつれて複雑な特徴(目、耳、顔全体など)を認識できるようになります。

スマートフォンの顔認証、医療画像の診断支援、自動運転での物体検知などに広く活用されています。

リカレントニューラルネットワーク(RNN)

Section titled “リカレントニューラルネットワーク(RNN)”

リカレントニューラルネットワークRNN: Recurrent Neural Network)は、時系列データ文章のように、順序に意味があるデータの処理に適したネットワーク構造です。

RNNの特徴は、過去の情報を「記憶」として保持しながら、次の入力を処理できる点です。たとえば「私は日本語を」という文の次に来る単語を予測するとき、それまでの文脈を踏まえて「話します」と推測できるのは、過去の入力を記憶しているからです。

音声認識、機械翻訳、株価予測などに活用されています。

敵対的生成ネットワーク(GAN)

Section titled “敵対的生成ネットワーク(GAN)”

敵対的生成ネットワークGAN: Generative Adversarial Network)は、新しいデータを生成することに特化したネットワーク構造です。

GANは2つのネットワークで構成されています。

  • 生成器(ジェネレータ):偽物のデータ(たとえば架空の人物写真)を生成する
  • 識別器(ディスクリミネータ):データが本物か偽物かを見分ける

この2つが互いに競い合う(敵対する)ことで、生成器はどんどんリアルなデータを作れるようになります。「敵対的」という名前は、この仕組みに由来しています。

GANは、写実的な画像の生成、画像のスタイル変換、データの拡張(不足するデータを補う)などに活用されています。

ネットワーク構造略称得意な分野主な用途
畳込みニューラルネットワークCNN画像認識顔認証、医療画像診断
リカレントニューラルネットワークRNN時系列・文章音声認識、機械翻訳
敵対的生成ネットワークGANデータ生成画像生成、スタイル変換

試験で出るポイント

CNN=画像、RNN=時系列・文章、GAN=生成、という対応を押さえましょう。それぞれの正式名称と略称の両方を覚えておくと安心です。

基盤モデルと大規模言語モデル(LLM)

Section titled “基盤モデルと大規模言語モデル(LLM)”

近年のAI開発では、まず膨大な量のデータ(インターネット上のテキスト、画像など)を使ってモデルを訓練する事前学習が行われます。事前学習によって作られた汎用的なAIモデルを基盤モデル(ファウンデーションモデル)と呼びます。

基盤モデルは、特定のタスクのためだけに作られたものではなく、さまざまな用途に応用できる「土台」となるモデルです。一つの基盤モデルから、文章要約、翻訳、質問応答、画像認識など、多様なタスクに対応できます。

ファインチューニングと転移学習

Section titled “ファインチューニングと転移学習”

基盤モデルをそのまま使うこともできますが、特定の目的に合わせて性能を高めるための手法があります。

ファインチューニングとは、事前学習済みのモデルに対して、特定の分野やタスクのデータを使って追加の学習を行い、性能を調整することです。たとえば、汎用的な基盤モデルに医療分野のデータを追加学習させることで、医療に特化したAIに仕上げることができます。

転移学習とは、ある分野で学習した知識を、別の分野に応用する手法です。たとえば、大量の一般画像で学習したモデルの知識を活かして、少量の医療画像データだけで病変を検出するモデルを作れます。ゼロから学習するよりも少ないデータで高い精度が得られるのが利点です。

用語意味
事前学習大量のデータでモデルを訓練し、汎用的な知識を獲得させること
基盤モデル事前学習で作られた、さまざまな用途に応用できる汎用AIモデル
ファインチューニング事前学習済みモデルを特定の分野・タスク向けに追加学習して調整すること
転移学習ある分野で学習した知識を別の分野に応用すること

試験で出るポイント

基盤モデルは「大量データで訓練された汎用モデルで、ファインチューニングにより様々な用途に適応できる」ものです。2025年の試験で出題されました。事前学習→基盤モデル→ファインチューニングという流れをセットで理解しましょう。

大規模言語モデルLLM: Large Language Model)は、膨大な量のテキストデータで事前学習された基盤モデルの一種で、人間のように自然な文章を理解・生成できるAIです。

LLMの代表的な例としては、ChatGPTなどがあります。LLMは、質問応答、文章の要約、翻訳、プログラムコードの生成など、幅広い言語タスクをこなすことができます。

プロンプトエンジニアリングとは、LLMに対して適切な指示文(プロンプト)を設計することで、より望ましい出力を引き出す技術・手法です。

同じLLMでも、指示の仕方によって出力の質が大きく変わります。たとえば「要約して」と伝えるだけでなく、「3行以内で要約して。専門用語は使わないでください」と具体的に指示することで、期待通りの結果が得やすくなります。

プロンプトエンジニアリングは、LLMを効果的に活用するための重要なスキルとして注目されています。

過学習とは、機械学習のモデルが学習データに過度に適合してしまい、未知の新しいデータに対して正しく判断できなくなる現象です。

たとえるなら、試験勉強で過去問の答えを丸暗記した状態です。過去問とまったく同じ問題には正解できますが、少し表現が変わった問題には対応できません。同様に、過学習したモデルは学習データに対しては高い精度を示しますが、実際の運用で新しいデータを処理すると精度が大きく下がります。

過学習を防ぐための主な対策には、次のようなものがあります。

  • 学習データの量を増やす
  • モデルを複雑にしすぎない
  • 学習を適切なタイミングで打ち切る

試験で出るポイント

過学習は「学習データには高精度だが、新しいデータには精度が下がる」現象です。丸暗記と本質的理解の違いに例えると覚えやすいでしょう。

AI技術の全体像を整理すると、次のようになります。

分類用語ポイント
AIのアプローチルールベース人間がルールを定義する
機械学習データから自動的に学習する
機械学習の種類教師あり学習正解ラベル付きデータで分類・回帰
教師なし学習ラベルなしデータでクラスタリング
強化学習報酬を最大化するよう試行錯誤
ニューラルネットワーク活性化関数ニューロンの出力値を決める関数
バックプロパゲーション誤差を逆方向に伝えて重みを調整
ディープラーニングディープラーニング多層NNで特徴量を自動抽出
CNN画像認識に特化
RNN時系列・文章の処理に特化
GANデータ生成に特化(生成器と識別器が敵対)
基盤モデル・LLM事前学習大量データで汎用的に訓練
ファインチューニング特定タスク向けに追加学習
転移学習別分野の知識を応用
LLM大規模な言語特化の基盤モデル
プロンプトエンジニアリング適切な指示文で出力品質を高める
学習の問題過学習学習データに過度に適合してしまう現象

試験で出るポイント

AI分野は毎年4〜5問出題される頻出テーマです。とくに「ディープラーニングの特徴(特徴量の自動抽出)」「機械学習の3種類の違い」「基盤モデルとファインチューニング」「ニューラルネットワークの仕組み」が繰り返し問われています。各用語の定義を正確に理解し、具体例と結びつけて覚えましょう。

アプリで問題を解こう!