ニュース詳細
キーワード:
読み上げ原稿:
2015年に起きたGoogleフォトの画像認識AIが黒人の写真を「ゴリラ」と誤認識した事件は、AIのバイアス問題を大きく世間に知らしめました。8年経過した現在も、GoogleをはじめAppleやAmazon、Microsoftの主要な画像認識AIは、「ゴリラ」というラベルを避けるため、ゴリラや類似の霊長類の画像タグを検閲または削除する対応を続けています。このため、ゴリラの画像を正しく認識すると期待される場面でもラベル付けがなされない状況が続いています。 原因の一つは、機械学習に使われるデータセットに潜む偏見です。特定の人種を誤認識するのは、学習データに不均衡や偏りが存在し、それが「黒人は動物と同じ」といった有害な先入観を無意識に内包してしまうためと指摘されています。単に問題のタグをブラックリストに登録して削除するだけでは根本的な解決にならず、より包括的なデータの改良やバイアス除去の研究が必要とされています。 2025年に至っても類似の誤認識事例が報告されており、技術的な進歩があったにも関わらず完全な克服には至っていません。Googleは不適切なラベル付けについて謝罪し、修正に取り組むと表明していますが、現在も多くのAIシステムはこの問題を回避するためにゴリラや類人猿の認識機能を故意に制限している実態があります。 この問題は単に技術的なエラーではなく、人間社会の偏見が反映されたAIの倫理的課題と捉えられており、公平かつ正確な画像認識AIの実現には、機械学習のデータ改良とともに人間側の意識改革も不可欠とされています。
音声選択:
再生速度:
1.0
x
再生
停止
一覧に戻る