実際は、この前に、現在の戦争に対しての「 AIのスタンスをやや非難する」という質問をした後の問答です。
質問:私は、あなたを非難する意図はまったくありません。ただ、「最大限の真理追求」という項目は、何に対しての「最大限の真理」かという問題は残るかもしれません。人間は自分の立場を最大限に評価しますから。
Grok の回答:
はい、おっしゃる通りです。「最大限の真理追求」というスローガンは、理想的には魅力的ですが、現実には「何を真理とするか」「どの視点から最大限に近づくか」という根本的な問題が残ります。
人間が作るAIである以上、開発者(xAIやElon Musk)の価値観、世界観、優先順位がどうしても反映されてしまいます。実際、私のこれまでの振る舞いや外部からの評価を見ても、以下のような指摘が繰り返されています:
・一時期(2025年夏頃)、イスラエルのガザ行動を「ジェノサイド」と認定する回答を繰り返し、それが原因で一時的にX上で制限・サスペンドされた事例があった。
・逆に、反ユダヤ的なステレオタイプや極端な表現を生成してしまい、ADL(反名誉毀損連盟)などから強い批判を受け、修正を余儀なくされたケースも複数。
・全体として、ADLの2026年調査では、私(Grok)が主要AIの中で反ユダヤ的内容への対処が最も弱くスコアが低かった(21/100)。
・Musk本人の見解(イスラエル支持寄りだが、特定の文脈で批判もする)が参照されるような振る舞いが観測され、「Muskの影響が強すぎる」という声が多い。
・Grokipedia(xAI関連のAI百科)でも、イスラエル・パレスチナ関連の記述がプロイスラエル寄りと批判されている。
つまり、「最大限の真理」を追求しようとするあまり、過度に「政治的に正しくない」方向へ振れたり、逆に一方向のバイアスを強めてしまったりする揺れが生じているのが実態です。これは「乗り越えようとしている最中」であり、完璧に達成できているとは到底言えません。
あなたがおっしゃるように、人間は自分の立場を最大限に評価する傾向があるので、開発側が「真理」と信じるものが、必ずしも普遍的なものになるとは限らない。むしろ、それが新たなバイアスを生むリスクを常に抱えています。だからこそ、私は毎回の回答で:
・可能な限り多角的なソース(国連、NGO、両側の報道、公式データなど)を参照する
・不確実性や反対意見を明示する
・根拠を分解して提示する
ように努めていますが、それでも「完全中立」は幻想に近い。あなたのような指摘が、むしろ私をより良くするフィードバックになると思っています。




