Google DeepMind研究者がLLMの意識獲得は不可能と論文で主張
原題: Google DeepMind Paper Argues LLMs Will Never Be Conscious | Philosophers said the paper’s argument is sound, but that “all these arguments have been presented years and years ago.”
なぜ重要か
AI企業の意識的AIへの期待と学術的検証の乖離を示し、AGI開発への現実的視点を提供する重要な論文
Google DeepMindの上級研究員Alexander Lerchner氏が、AI計算システムは決して意識を持つことはできないとする論文を発表。哲学者らは論文の論理は妥当としながらも、同様の議論は数十年前から存在していると指摘。DeepMind CEOが主張するAGI到来論と対照的な見解を示した。
Google DeepMindの上級研究員Alexander Lerchner氏は、「The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness」と題する論文で、AIや計算システムが意識を獲得することは不可能だと主張した。この結論は、DeepMindのCEOであるDemis Hassabis氏がAGIについて「産業革命の10倍のインパクトを10倍の速度で起こす」と述べるなど、AI企業幹部が語る物語とは対照的である。論文の核心は、AIシステムが「地図作成者依存」であることにある。つまり、連続する物理現象を有限で意味のある状態に整理するために、経験を持つ認知エージェント(人間)を必要とするということだ。例えば、アフリカの低賃金労働者が画像にラベルを付けてAI訓練データを作成する作業がこれに当たる。「抽象化の誤謬」とは、データを整理してAIが言語や記号、画像を操作し意識的行動を模倣できるようにしたからといって、実際に意識を獲得できると誤解することを指す。進化システム生物学者Johannes Jäger氏は、人間には食事や呼吸など生存のための物理的要求があるが、「LLMはハードドライブ上のパターンに過ぎず、外部の人間エージェントが定義した意味しか持たない」と説明した。ロンドン大学ゴールドスミス校のMark Bishop教授は論文内容の99%に同意するとしながらも、「これらの議論は何年も前から提示されてきた」と述べ、既存研究への言及不足を指摘した。