基礎理論 概要
基礎理論は、コンピュータが情報を扱うための数学的・論理的な土台を学ぶ分野です。2進数の計算やデジタル化の仕組みなど、一見むずかしそうに感じるかもしれませんが、コンピュータの「考え方」を理解するうえで欠かせない知識ばかりです。近年はAI(人工知能)に関する出題も増えており、テクノロジ系の中でも幅広い知識が問われます。
この章で学ぶこと
Section titled “この章で学ぶこと”- 数と表現 — コンピュータ内部で使われる2進数・8進数・16進数の仕組みと、10進数との基数変換の方法を学びます。試験では計算問題として頻出します。
- 集合 — ベン図を使った集合の和・積・差・補集合の考え方を学びます。データベースの検索条件やプログラムの条件分岐の基礎になります。
- 論理演算 — AND・OR・NOT・XORなどの論理演算の仕組みと真理値表を学びます。コンピュータの回路設計やプログラミングの条件式の基本です。
- 確率と統計 — 確率の基本、平均値・中央値・標準偏差などの統計指標を学びます。データ分析やAIの学習にも関わる知識です。
- 数値計算・数値解析・数式処理 — コンピュータを使った近似計算やシミュレーションの考え方を学びます。
- グラフ理論 — ノードとエッジで表されるグラフの基本概念を学びます。ネットワークや経路の最適化に応用されます。
- 待ち行列 — 窓口に並ぶ行列のように、処理の待ち時間を数学的に分析する考え方を学びます。システムの性能評価に役立ちます。
- 最適化問題 — 限られた条件の中で最善の解を求める方法を学びます。線形計画法などが代表的です。
- 情報量の単位 — ビット(bit)とバイト(byte)の関係、KB・MB・GB・TBなどの単位の換算を学びます。
- デジタル化 — アナログ情報をデジタル情報に変換する「標本化→量子化→符号化」の3ステップを学びます。
- 文字の表現 — ASCII、JISコード、Unicode(UTF-8)など、コンピュータが文字を扱う仕組みを学びます。
- 論理的な記述 — フローチャートや決定表など、物事を論理的に整理・表現する方法を学びます。
- AI(人工知能)の技術 — 機械学習・ディープラーニング・LLMなど、AI技術の基本概念と種類を体系的に学びます。
押さえておきたいポイント
Section titled “押さえておきたいポイント”- 基数変換(2進数⇔10進数⇔16進数)の計算手順を確実にマスターする
- 補数の考え方(1の補数・2の補数)と負の数の表現方法
- AND(論理積)・OR(論理和)・NOT(否定)・XOR(排他的論理和) の真理値表
- ベン図を使った集合演算の読み取り
- 平均値・中央値・最頻値・標準偏差の意味と違い
- ビットとバイトの関係(1バイト = 8ビット)と単位の接頭辞(K・M・G・T)
- nビットで表現できる情報の数 = 2のn乗
- 標本化(サンプリング)→ 量子化 → 符号化 のデジタル化の3ステップ
- ASCII(7ビット、英数字・記号)と Unicode(世界中の文字を統一的に扱う)の違い
- 機械学習の3種類:教師あり学習・教師なし学習・強化学習
- ディープラーニング:多層のニューラルネットワークで特徴量を自動抽出する手法
- 過学習(オーバーフィッティング):学習データに過度に適合し、未知のデータへの精度が低下する現象
試験での出題傾向
Section titled “試験での出題傾向”基礎理論からは毎回4〜5問程度出題されます。特に基数変換の計算問題とAI関連の用語問題は頻出です。計算問題は手を動かして練習し、AI分野は「教師あり学習」「ディープラーニング」「LLM」など最新キーワードの意味を正確に押さえておきましょう。