一文定義
AIバイアスとは、AIモデルの訓練データや設計に内在する偏りによって、特定の属性(性別・人種・年齢等)に対して不公平な出力が生じる問題です。
詳細解説
AIバイアス(AI Bias)とは、AIモデルが学習データや設計の偏りを反映して、特定の人や集団に対して不公平・不正確な出力を生成する問題の総称です。
なぜバイアスが問題かというと、採用・融資・医療診断・刑事司法など、人の人生に影響する意思決定にAIが使われる場面が増えているためです。バイアスのあるモデルは特定の属性(女性・特定の人種など)を不当に不利に扱う判断を下す可能性があります。
バイアスの主な発生源は3つです。①データバイアス(学習データが社会の偏りを反映)②アルゴリズムバイアス(モデル設計の問題)③フィードバックループ(偏った予測が次の行動に影響し偏りが拡大)。対策として、多様なデータの収集、公平性指標によるモニタリング、RLHFによるアライメント調整などが行われています。生成AIの文脈では、ハルシネーションとともに「信頼性の問題」として対処が求められます。
参考情報・出典
- ▸AI fairness - Google Machine Learning Glossary— Google Developers(参照日: 2026-02-25)
- ▸Algorithmic bias - Wikipedia— Wikipedia(参照日: 2026-02-25)
最終更新: 2026-02-25← 用語集一覧へ