ELLの足跡

人は最後は一人だという…でも、…今は妻が傍にいてくれる…

Googleが多様性を意識し過ぎてGeminiが不適切な歴史的表現しちゃった…!?



Google Gemini 人物画像生成停止!!
多様性重視ぎて過剰適応した結果が…!!


歴史的描写における不正確さ!?

 米Googleは2月22日(現地時間)、マルチモーダルな生成AIツール「Gemini」で人物の画像を生成する機能を一時的に停止し、「一部の歴史的描写における不正確さ」を修正すると公式Xアカウントで発表しました。
 実際、人物画の作成を指示してみたら、「ジェミニの人物画像生成機能の改善に取り組んでいます。近いうちにこの機能が復活することを期待しており、その際にはリリースアップデートでお知らせします。」と返事してきました。

 一体なにが不適切やったのかといえば・・・例えば、「1943年のドイツ兵を描いて」と指示すると、ナチスドイツの制服を着た黒人やアジア人の画像が生成されたといいます。  Googleによりますと、モデルが学習を重ねるにつれ、想定よりも慎重になり、特定のプロンプトへの回答を拒否するようになった。そのため、モデルはある場合には過剰に補正し、ある場合には過剰に保守的になり、「恥ずかしく誤った画像の生成に繋がった」としています・・・要するに、ダイバーシティー(多様性)に配慮するということを重視するあまり、過剰適応した結果のようです。

 多様性の世の中・・・なかなか難しい時代に成ってきましたね・・・
 Geminiに関しては、人物画像生成が可能となるまで待つ以外にありませんね。