구글 딥마인드, LLM은 절대 의식 가질 수 없다고 주장

원제: Google DeepMind Paper Argues LLMs Will Never Be Conscious | Philosophers said the paper’s argument is sound, but that “all these arguments have been presented years and years ago.”

왜 중요한가

대형 AI 기업 내부에서 AGI 개발 한계를 인정하는 논문이 나온 것은 AI 과대광고에 대한 경고 신호다.

구글 딥마인드 연구원 알렉산더 러크너가 LLM을 포함한 모든 AI 시스템은 의식을 가질 수 없다고 주장하는 논문을 발표했다. 이는 AI 회사 CEO들이 주장하는 AGI 개발 가능성과 상반되는 입장이다. 철학자들은 논증이 타당하지만 수십 년 전부터 제기된 주장이라고 평가했다.

구글 딥마인드의 수석 연구원 알렉산더 러크너는 '추상화 오류: AI가 의식을 시뮬레이션할 수 있지만 구현할 수 없는 이유'라는 제목의 논문에서 AI나 다른 컴퓨터 시스템이 의식을 가질 수 없다고 주장했다. 이는 딥마인드 CEO 데미스 허사비스를 포함한 AI 기업 경영진들이 AGI 개발 가능성을 언급하는 것과 대조적이다. 허사비스는 최근 AGI가 '산업혁명의 10배 영향을 10배 빠른 속도로 가져올 것'이라고 주장했다.

러크너는 모든 AI 시스템이 '지도제작자 의존적'이라고 설명했다. 즉, 연속적인 물리학을 유한한 의미 있는 상태로 체계화하려면 '적극적이고 경험하는 인지 주체'인 인간이 필요하다는 것이다. 예를 들어 아프리카의 저임금 노동자들이 AI 훈련 데이터를 위해 이미지에 라벨을 붙이는 과정이 필요하다.

진화 시스템 생물학자이자 철학자인 요하네스 예거는 '인간은 먹고 숨쉬며 생존을 위해 지속적으로 물리적 작업에 투자해야 하지만, 비생명 시스템은 그렇지 않다'며 'LLM은 하드 드라이브의 패턴 모음일 뿐'이라고 설명했다. 런던대 골드스미스의 마크 비숍 교수는 논증에 99% 동의하지만 '이러한 주장들이 수년 전부터 제시됐다'고 평가했다.

출처

404media.co — 원문 읽기 →