AI企業が人間の認知プロセスに基づく機能名付けを停止すべき論
原題: I Am Begging AI Companies to Stop Naming Features After Human Processes
なぜ重要か
AI機能の擬人化命名は、機械と人間の境界を曖昧にし、技術の本質的理解を妨げる可能性がある
AnthropicがAIエージェント向けに「夢見る」機能を発表。これはエージェントの活動記録を分析して性能改善する機能だが、AI企業が人間の認知プロセス名を機能名に使用することへの批判が高まっている。OpenAIの「推論」モデルなど同様の命名が続いている。
Anthropicは開発者会議で、AIエージェント向けの新機能「dreaming」を発表した。この機能は、エージェントが最近完了したタスクの記録を分析し、パフォーマンス向上のための洞察を得るものだ。複数のウェブサイト訪問やファイル読み込みなど、多段階のタスクを実行するAIエージェントが、活動ログからパターンを見つけて能力を改善する仕組みとなっている。Anthropicは「メモリーと夢見ることで、自己改善エージェントのための堅牢なメモリーシステムを形成する」と説明している。
2022年のチャットボット革命以来、AI企業のリーダーたちは生成AI機能に人間の脳内プロセスに基づく名前を付ける傾向を続けている。OpenAIは2024年に初の「推論」モデルをリリースし、チャットボットが「考える」時間を必要とすると説明した。多くのスタートアップも、チャットボットがユーザーについての「記憶」を持つと表現している。これらは通常のコンピューター「メモリー」ではなく、「サンフランシスコに住み、午後の野球観戦を楽しみ、メロンが嫌い」といった人間的な情報の断片だ。
Anthropicでは、この擬人化がマーケティング戦略を超えて深く根ざしている。同社のClaude行動憲章には「我々はClaudeを通常人間に使われる用語(美徳、知恵など)で議論する」と記載されており、人間らしい品質の受容を奨励している。