다음은 ‘중국어 방’실험을 비판한 레이 커즈와일의 주장이다.
“인간은 뇌가 있기 때문에 생각이란 것을 할 수 있다. 하지만 뇌는 결국 뉴런들의 집합일 뿐이며 이 부품(뉴런) 하나하나는 생각을 할 수 없다. 뉴런 하나는 단순히 물리, 화학 법칙을 따라서 작동할 뿐이다. 다만 이 부 품들이 모여서 뇌라는 하나의 시스템을 이룰때 비로소 생각이라는 것을 할 수 있게 되고 중국어를 이해할 수 있게 되는 것이다. 이렇게 생각해보면 중국어 방 논증 또한 시스템을 구성하는 요소들, '방', '방 안의 사람', ' 매뉴얼'은 중국어를 이해하지 못해도 괜찮다. 이것들이 모여서 '중국어 방'이라는 하나의 체계를 이뤄서 중국 어로 아무 문제 없이 소통할 수 있다면 이 '시스템'은 중국어를 이해하고 있다고 해도 무방한 것이다.”
책에서 레이 커즈와일은 인간이 언어를 이해하는 것 또한 일종의 작동이라고 설명한다. 인간의 사유를 단순한 생물적 기능, 작동으로 이해한 것인데 사실 튜링테스트에서 사유(Think)한다는 의미에 있어서 이 사유를 어떻게 볼 것인가? 에 따라서 각자 기준은 다를 수 밖에 없다. 나는 그 기준을 인간과 같은 지능으로 사유할 수 있는가?로 두었다. 그렇기 때문에 커즈와일의 주장은 어폐가 있다. 커즈와일의 논리대로라면 인간 또한 어떠한 매뉴얼과 시스템에 의해 작동하는 기계라고 할 수 있겠지만 사실 인간은 그보다 훨씬 더 복잡하고 논리적으로 해석될 수 없기 때문이다.
‘중국어 방’이라는 하나의 시스템이 중국어를 이해하고 있다고 하는 것 또한 명확하지 않은 논리이다. 언어가 보다 복잡한 분야인 것도 짚고 넘어가야할 부분 중 하나인데, 예를 들어 여기 일본인과 대화와 소통이 가능한 김민지라는 인물이 있다고 가정해보자. 이 인물은 어릴 적 일본 만화영화를 많이 시청하여 일본어를 듣고 말하는 데에 능숙하고 실제 일본인과도 무리없이 소통이 가능하다. 그러나 일본어를 읽고 쓰는 것은 유치원생 수준에 불과하여 큰 어려움을 겪고 있다. 이 경우에 이 인물은 일본어를 이해하고 있는 것인가? 감각의 차원에 따라 다른 결과가 나온다는 것은 사유와 밀접한 관계를 맺고 있는 언어능력이 보다 복잡하며 단순히 뇌의 작동으로 이해하기에는 무리가 있다는 의미이다. 중국어 방 실험이 아닌 튜링 테스트로 돌아와서 보아도 그렇다. 인간의 사유는 단순한 작동으로 단정지어 말할 수 없을만큼 복잡하다. 단순한 대화를 통한 짧은 시간 동안의 실험을 통해 복잡한 사유의 가능성을 인정하기에는 무리가 있다.
계속해서 언어학적 측면에서 설명해보도록 하겠다. 언어는 사유의 체계이며 문화의 총체이다. 언어를 이해한다는 것은 그 언어를 사용하는 집단의 삶과 문화를 이해한다는 의미이다. 언어는 단순한 기호 체계 이상의 의미를 갖는다. 파파고와 같은 인공지능 번역 프로그램을 예시로 들어보자. 올해 초 가장 센세이셔널 했던 영화 <기생충>의 아카데미상 수상의 사례에서, 이를 가능하게 만든 것은 훌륭한 번역의 공이 컸다고 말한다. 파파고에 ‘짜파구리’를 영어로 번역하도록하면 당연히도 ‘Chapaguri’라는 발음 그대로의 단어가 나온다. 한국에서만 통용되는 이 단어를 ‘ramdon’(라면과 우동의 합성어)로 바꾸고 서울대를 옥스포드로 바꾸는 등의 단순한 직역을 넘어서 번역하고자 하는 언어의 특징에 맞게 그 언어의 사용자가 의미를 이해할 수 있도록 로컬라이징하는 것은 인간만이 할 수 있는 사유의 결과이다. 그 외 한국에서 사용되는 줄임말이나 신조어의 예시도 마찬가지이다. 우리가 ‘KIN(즐), 네넴띤(비빔면), 며용(띠용), 얼죽아(얼어죽어도 아이스아메리카노), 버정(버스정류장), RGRG(알지알지), JMT(존맛탱)’등의 신조어를 이해하는 것은 단순히 학습되고 프로그래밍된 결과가 아닌 인간의 사회,문화적 맥락의 측면에서 사유할 수 있는 존재이기 때문이다. 인공지능의 사유가 프로그래밍된 결과를 넘어서 위 예시만큼 고차원적인 수준으로 이루어질 때 우리는 인공지능 또한 사유한다고 인정할 수 있을 것이다. 그러나 튜링 테스트는 이와 같은 고차원적인 수준의 사유를 구별해낼 수 없다. 질문에 대한 컴퓨터의 대답이 사회 문화적 맥락을 고려한 고차원 적인 사유에서 나온 것인지, 아니면 단순히 신조어를 중심으로 학습된 결과인지 실험 내에서는 명확히 밝혀낼 수 없기 때문 이다. 단적인 예로 실제로 사유하는 인공지능이 개발되어서 신조어에 대한 질문을 받았다고 가정해보자. ‘갑분싸’라는 단어 가 무엇인지 묻는 질문에 컴퓨터는 사유를 통해 이를 추측해내 ‘갑자기 분뇨를 싸지른다.’라는 답변을 내놓는다면(이는 실제 황정민 배우의 답변이다.)이것이 데이터를 통한 학습에 의한 것인지, 사유를 통한 것인지를 질문자는 구분해낼 수 있는가? 물론 이 상황에서는 오답이 더 사유 가능하다는 증거에 가깝다고 여겨질 수도 있다. 그렇다면 한 칸에는 황정민이 들어가고 한 칸에는 컴퓨터가 들어가서 황정민은 예의 오답을 내놓고 컴퓨터는 사유를 통한 정답을 내놓았을 때, 질문자는 이를 구분해낼 수 있는가? 이렇듯 컴퓨터가 학습한 것 이외의 분야에서 사유를 통한 답변을 받아낸다고 해도 튜링테스트를 통해서 이를 구분해내기가 쉽지 않다는 것을 알 수 있다.