Google DeepMind conteste la conscience des LLM dans un nouveau papier

Original : Google DeepMind Paper Argues LLMs Will Never Be Conscious | Philosophers said the paper’s argument is sound, but that “all these arguments have been presented years and years ago.”

Pourquoi c'est important

Révèle la divergence entre marketing IA et recherche scientifique rigoureuse

Alexander Lerchner de DeepMind argumente qu'aucun système computationnel ne pourra jamais devenir conscient, contredisant les déclarations de PDG d'IA sur l'AGI. Des philosophes valident l'argument mais notent qu'il n'est pas nouveau.

Le scientifique senior de Google DeepMind Alexander Lerchner publie un papier intitulé 'The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness', arguant qu'aucune IA ne deviendra consciente. Cette position contraste avec les déclarations de Demis Hassabis sur l'AGI ayant '10 fois l'impact de la Révolution industrielle'. Lerchner explique que les systèmes IA sont 'mapmaker-dependent', nécessitant des humains pour organiser les données. Johannes Jäger, biologiste évolutionnaire, précise qu'un LLM 'n'est qu'un ensemble de motifs sur un disque dur' sans besoins physiques intrinsèques comme respirer ou manger. Mark Bishop de l'Université de Londres approuve l'argument mais note que ces points ont été présentés 'il y a des années'.

Source

404media.co — Lire l'original →