본문 바로가기
정보경영

AI_신체가 없는 ChatGPT는 자신이 한 말을 이해하지 못 한다.

by 인텔리 졍 2023. 4. 23.
반응형

최근 ChatGPT와 대화를 나누다 보면, 그것의 대답이 꽤나 그럴 듯 하여 사람과 유사하다는 착각을 하곤 한다.

그러나 AI는 과연 사람과 같아질 수 있을까?

인간의 언어는 감각으로부터 발현되는 것이기도 하여 신체가 없는 AI는 절대로 인간과 같아질 수 없다는 주장이 있어 소개한다.

 

 

---------------------------------------

[기사 원문] Without a Body, ChatGPT Will Never Understand What It's Saying

https://gizmodo.com/chatgpt-ai-openai-no-body-no-understanding-1850313233

 

Without a Body, ChatGPT Will Never Understand What It's Saying

It takes a body to understand the world, and words have meaning because people use them to make sense of the word, write ASU and USCD psychology researchers.

gizmodo.com

[한글 번역]

신체가 없으면 ChatGPT는 자신이 말하는 내용을 절대 이해하지 못합니다.
세상을 이해하려면 몸이 필요하고, 사람들이 단어를 이해하기 위해 단어를 사용하기 때문에 단어에는 의미가 있습니다.

작성: 아서 글렌버그와 카메론 로버트 존스
게시일자: 2023년 4월 9일

매우 강력하고 인기 있는 인공 지능 언어 시스템인 GPT-3에 종이 지도를 사용할 것인지 돌을 사용하여 바비큐를 위해 석탄에 생명을 불어넣을 것인지 물었을 때 돌을 선호했습니다.

구겨진 치마를 매끈하게 하려면 따뜻한 보온병이나 머리핀을 잡겠습니까? GPT-3는 머리핀을 제안했습니다.

그리고 패스트푸드점에서 일하기 위해 머리를 가려야 한다면 종이 샌드위치 포장지와 햄버거 빵 중 어느 것이 더 좋을까요? GPT-3는 빵을 먹으러 갔다.

대부분의 사람들이 대안을 선택할 때 GPT-3가 그러한 선택을 하는 이유는 무엇입니까? GPT-3는 인간처럼 언어를 이해하지 못하기 때문입니다.

ChatGPT의 몸이 없는 말들
우리 중 한 명은 20년 전에 그 당시의 컴퓨터 언어 모델에 대한 이해를 테스트하기 위해 위와 같은 일련의 시나리오를 제시한 심리학 연구원입니다. 모델은 석탄을 부채질하기 위해 바위와 지도를 사용하는 것 중에서 정확하게 선택하지 않은 반면 인간은 그렇게 쉽게 선택했습니다.

우리 중 다른 한 명은 보다 최근에 동일한 시나리오를 사용하여 GPT-3를 테스트한 연구원 팀의 일원이었던 인지 과학 박사 과정 학생입니다. GPT-3는 이전 모델보다 더 잘했지만 인간보다 훨씬 나빴습니다. 위에서 언급한 세 가지 시나리오가 완전히 잘못되었습니다.

ChatGPT의 초기 릴리스를 구동하는 엔진인 GPT-3는 1조 개의 인스턴스에서 어떤 단어가 다른 단어를 따르는 경향이 있는지를 기록하여 언어에 대해 학습합니다. 언어 시퀀스의 강력한 통계적 규칙성을 통해 GPT-3는 언어에 대해 많은 것을 배울 수 있습니다. 그리고 이러한 순차적인 지식을 통해 ChatGPT는 종종 합리적인 문장, 에세이, 시 및 컴퓨터 코드를 생성할 수 있습니다.

GPT-3는 인간 언어에서 무엇을 따르는지에 대한 규칙을 배우는 데 매우 능숙하지만, 그 단어가 인간에게 무엇을 의미하는지 가장 모호하게 생각하지 않습니다. 그리고 어떻게 그럴 수 있습니까?

인간은 일을 완수하기 위해 물리적 및 사회적 세계에서 작동해야 하는 신체와 함께 진화한 생물학적 개체입니다. 언어는 사람들이 그렇게 하도록 돕는 도구입니다. GPT-3는 다음 단어를 예측하는 인공 소프트웨어 시스템입니다. 실제 세계에서 이러한 예측을 수행할 필요가 없습니다.

그러므로 나는 내가 인공적으로 지능적이지 않다고 생각합니다.
단어나 문장의 의미는 인간의 신체와 밀접하게 관련되어 있습니다. 인간의 행동 능력, 인지 능력, 감정 능력입니다. 인간의 인지 능력은 구현됨으로써 강화됩니다. 예를 들어 "종이 샌드위치 포장지"와 같은 용어에 대한 사람들의 이해에는 포장지의 모양, 느낌, 무게, 그리고 결과적으로 샌드위치 포장에 사용하는 방법이 포함됩니다. 사람들의 이해에는 또한 누군가가 그것을 제공하는 무수한 다른 기회를 위해 그것을 사용할 수 있는 방법도 포함됩니다.

이러한 모든 용도는 인체의 특성과 필요로 인해 발생합니다. 사람들은 종이를 접을 수 있는 손, 샌드위치 포장지와 거의 같은 크기의 머리카락을 가지고 있으며 고용되어 덮개와 같은 규칙을 준수해야 합니다. 머리카락. 즉, 사람들은 언어 사용 통계에 포착되지 않는 방식으로 물건을 사용하는 방법을 이해합니다.

당신의 몸은 당신의 마음을 형성합니다.

GPT-3, 그 후속 제품인 GPT-4, 그리고 그 사촌인 Bard, Chinchilla 및 LLaMA에는 신체가 없기 때문에 어떤 물체가 접힐 수 있는지 또는 심리학자 J.J. Gibson은 어포던스라고 불렀습니다. 사람들의 손과 팔을 감안할 때 종이 지도는 부채질을 가능하게 하고 보온병은 주름을 펴줍니다.

팔과 손이 없으면 GPT-3는 작업을 위해 구겨지지 않은 옷을 입어야 하는 필요성은 고사하고 이러한 어포던스를 결정할 수 없습니다. 인터넷의 단어 스트림에서 유사한 것을 발견한 경우에만 가짜로 만들 수 있습니다.

대규모 언어 모델 AI가 인간처럼 언어를 이해하게 될까요? 우리의 견해로는 인간과 같은 신체, 감각, 목적 및 삶의 방식이 없는 것은 아닙니다.

 

AI의 세계관을 향하여
GPT-4는 텍스트뿐만 아니라 이미지에 대해서도 학습되어 단어와 픽셀 사이의 통계적 관계를 학습할 수 있습니다. 현재 GPT-4가 단어에 할당한 확률을 출력하지 않기 때문에 GPT-4에 대한 원래 분석을 수행할 수는 없지만 GPT-4에 세 가지 질문을 했을 때 올바르게 대답했습니다. 이는 모델이 이전 입력에서 학습했거나 크기 및 시각적 입력이 증가했기 때문일 수 있습니다.

그러나 모델이 만나지 않았을 가능성이 있는 놀라운 어포던스를 가진 개체를 생각하여 문제를 일으키는 새 예제를 계속 구성할 수 있습니다. 예를 들어, GPT-4는 바닥이 잘린 컵이 바닥이 잘린 전구보다 물을 담는 데 더 낫다고 말합니다.

이미지에 접근할 수 있는 모델은 텔레비전에서 언어와 세상에 대해 배우는 어린이와 같을 수 있습니다. 라디오에서 배우는 것보다 쉽지만 인간과 같은 이해에는 세상과 상호 작용할 수 있는 중요한 기회가 필요합니다.

최근 연구에서는 이러한 접근 방식을 취하여 물리 시뮬레이션을 생성하고 물리적 환경과 상호 작용하며 심지어 로봇 행동 계획을 생성하도록 언어 모델을 교육했습니다. 체화된 언어 이해는 아직 갈 길이 멀지만 이러한 종류의 다감각 상호작용 프로젝트는 그 과정에서 중요한 단계입니다.

ChatGPT는 의심할 여지 없이 좋은 목적과 좋지 않은 목적으로 사용될 매혹적인 도구입니다. 하지만 그것이 지각이 있다는 것은 고사하고 그것이 내뱉는 말을 이해한다고 생각하도록 속지 마십시오.

반응형