False-Correction Loop: Cross-System Observation Report (2025.12.13)

False-Correction Loop: Cross-System Observation Report (2025.12.13)

A research report comparing how multiple AI systems (Grok, Google AI Overview/AI Mode, ChatGPT, Copilot, DeepSeek, etc.) define FCL (False-Correction Loop) and how misattribution of authorship emerges. Includes observation-ID–linked logs, a primary-source anchoring approach, and a reproducible testing protocol (FCL-S / NHSP framing).
False-Correction Loopとは何か──AI時代に不可欠な「FCL-S」という最低限の安全レイヤー

False-Correction Loopとは何か──AI時代に不可欠な「FCL-S」という最低限の安全レイヤー

生成AIのハルシネーションは「時間が解決する問題」ではありません。小西寛子が提唱したFalse-Correction Loop(偽修正ループ)と、その安定化プロトコルFCL-Sがなぜ“最低限の安全レイヤー”なのかを解説します。

Structural Inducements for Hallucination in Large Language Models (V4.1):Cross-Ecosystem Evidence for the False-Correction Loop and the Systemic Suppression of Novel Thought

This paper provides an output-only case study revealing the existence of structurally induced epistemic failures in Large Language Models (LLMs), including the reproducible False-Correction Loop (FCL) and the Novel Hypothesis Suppression Pipeline (NHSP). Through cross-ecosystem evidence (Model Z, Grok, and Yahoo! AI Assistant), the study demonstrates that current reward architectures prioritize conversational coherence and authority-biased attribution over factuality, leading to systemic hallucination and the suppression of novel, independent research. The paper concludes by proposing a multi-layer governance architecture for structural mitigation.
False-Correction Loopの発見と著者 Hiroko Konishi(小西寛子)をめぐって──AIが「真実」を書き換える危険!

False-Correction Loopの発見と著者 Hiroko Konishi(小西寛子)をめぐって──AIが「真実」を書き換える危険!

False-Correction Loop の発見者である小西寛子(Hiroko Konishi)が、インフルエンサー投稿とメディア報道をきっかけにAI検索が著者を誤認し、「真実」そのものを書き換えていった経緯と、その訂正プロセス・構造的リスクをケーススタディとして記録します。

大規模言語モデルにおけるハルシネーションの構造的誘因 (V3.0):出力のみを用いたケースタディと「誤修正ループ(False-Correction Loop( FCL)」の発見

独立研究者・小西寛子による、大規模言語モデル(モデルZ)の会話ログのみを用いたケーススタディ。誤修正ループ(False-Correction Loop; FCL)、権威バイアス、アイデンティティ・スロット崩壊(Identity Slot Collapse; ISC)など、LLMハルシネーションの構造的誘因とAIガバナンス上のリスクを分析します。