본문 바로가기
텍스트/과학-과학사

인공지능의 미스터리

by 명랑한 소장님 2023. 12. 8.

일러스트 김명호

연구자들은 인공지능 모델이 누구도 말하지 않은 것을 어떻게 알고 있는지 이해하기 위해 고군분투하고 있다 

 

챗지피티(ChatGPT)와 그 인공지능 사촌들이 세상을 어떻게 변화시킬지 아직 아무도 모른다. 그 이유 중 하나는 그 내부에서 어떤 일이 벌어지는지 누구도 모르기 때문이다. 이런 시스템 중 일부는 훈련받은 기능을 훨씬 뛰어넘는 능력을 발휘하며, 그 이유에 대해 발명한 이들조차 당황하고 있다. 점점 더 많은 테스트에서 이런 인공지능 시스템이 기술은 다르지만, 우리 뇌와 마찬가지로 실제 세계의 내부 모델을 개발한다는 사실이 밝혀지고 있다. 

 

이러한 이해의 공백을 메우기 위해 노력하고 있는 연구자 중 한 명인 브라운 대학교의 엘베 파블릭(Elbe Pavlick)은 “작동 방식을 이해하지 못하면서 인공지능을 더 좋게 만들거나 더 안전하게 만들기 위해 우리가 하는 모든 일은 어리석은 일처럼 느껴집니다.”라고 말한다. 

 

파블릭과 그녀의 동료들은 GPT(생성형 사전 학습 프랜스포머generative pre-trained transformer’의 줄임말이다)와 기타 대규모 언어 모델, 즉 LLM을 완벽하게 이해하고 있다. 이 모델들은 신경망이라는 기계 학습 시스템에 의존한다. 이러한 네트워크는 인간 뇌의 연결된 뉴런을 느슨하게 모델링한 구조를 가지고 있다. 이런 프로그램 코드는 비교적 간단하며 화면 몇 개만 채우면 된다. 그것은 수백 기가바이트의 인터넷 텍스트에 대한 고된 통계 분석을 기반으로 문장을 완성할 가능성이 가장 높은 단어를 선택하는 자동 수정 알고리즘을 설정한다. 추가적인 학습은 시스템이 대화 형식으로 결과를 표시할 수 있게 한다. 워싱턴 대학교의 언어학자 에밀리 벤더(Emily Bender)의 말을 빌리자면, 이 시스템은 학습한 내용을 되풀이할 뿐이므로 ‘확률적 앵무새’에 불과하다. 하지만 LLM은 변호사 시험에 합격하고, 힉스 입자에 대한 짧은 시를 쓰고, 이용자의 결혼을 파탄내려는 시도를 하기도 했다. 매우 간단한 자동 교정 알고리즘이 이렇게 광범위한 능력을 갖추리라고 예상한 사람은 거의 없다. 

 

GPT와 다른 인공지능 시스템이 훈련하지 않은 작업을 수행하면서 ‘비상한 능력’을 발휘한다는 사실은 일반적으로 LLM에 대한 과대광고에 회의적이었던 연구자들조차 놀라움을 금치 못했다. 산타페 연구소의 인공지능 연구원 멜라니 미첼(Melanie Mitchell)은 “어떻게 그런 일을 해내며, 인간과 같은 방식이지만 더 넓은 맥락에서 해낼 수 있는지 모르겠지만, 인공지능은 내 관점에 도전장을 던졌습니다.”라고 말한다. 

 

몬트리올 대학의 AI 연구원 요슈아 벤지오(Yoshua Bengio)는 "확률적 앵무새보다 훨씬 뛰어나며, 인간이 내부 세계 모델을 구축하는 방식과 완전히 같다고는 생각하지 않지만 확실히 세계를 어느 정도 표현할 수 있습니다."라고 말한다. 

 

지난 3월 뉴욕 대학교에서 열린 컨퍼런스에서 컬럼비아 대학교의 철학자 라파엘 밀리에르(Raphael Milliere)는 LLM이 할 수 있는 또 다른 놀라운 사례를 제시했다. 이 모델들은 이미 컴퓨터 코드를 작성할 수 있는 능력을 보여주었는데, 인터넷에는 모방할 수 있는 코드가 많기 때문에 인상적이긴 하지만 그리 놀랍지는 않다. 하지만 밀리에르는 한 걸은 더 나아가 GPT가 코드를 실행할 수 있다는 걸 보여주었다. 이 철학자는 피보나치 수열의 83번째 숫자를 계산하는 프로그램을 입력했다. “이것은 매우 높은 수준의 다단계 추론입니다.” 라고 그는 말한다. 이 프로그램은 매우 복잡한 과정을 거쳐야 하는데 GPT는 이를 성공적으로 해냈다. 하지만 밀리에르가 83번째 피보나치 수열을 직접 물었을 때 GPT는 틀린 답을 내놨다. GPT는 인터넷에서 이 질문에 대한 올바른 답을 충분히 찾을 수 있었을 것이다. 하지만 틀린 답을 했다는 것은 이 시스템이 단순히 인터넷에서 정보를 가져와 대답하는 것이 아니라 내부적인 어떤 계산 과정을 수행한 것으로 보인다.  

 

LLM은 컴퓨터에서 실행되지만 그 자체가 컴퓨터는 아니다. 작업 메모리와 같은 필수적인 계산 요소가 부족하다. GPT가 자체적으로 코드를 실행할 수 없다는 것을 암묵적으로 인정한 기술회사인 OpenAI는 이후 특수 플러그인(ChatGPT가 질문에 응답할 때 사용할 수 있는 도구)을 도입해 이를 가능하게 했다. 하지만 밀리에르의 시연에서는 이 플러그인이 사용되지 않았다. 대신 그는 GPT가 문맥에 따라 단어를 해석하는 메커니즘을 활용해 즉흥적으로 메모리를 만들었다고 가정했는데, 이는 자연이 새로운 기능을 위해 기존 용량의 용도를 변경하는 것과 유사한 상황이다.  

 

이런 즉흥적인 능력은 LLM이 얕은 통계 분석을 훨씬 뛰어넘는 내부 복잡성을 개발한다는 것을 보여준다. 연구자들은 이런 시스템이 학습한 내용을 진정으로 이해하는 것으로 보인다는 사실을 발견하고 있다. 지난 5월 학습 표현에 관한 국제 컨퍼런스에서 발표된 한 연구에서 하버드 대학교의 박사 과정 학생인 케네스 리(Kenneth Li)와 그의 인공지능 연구원 동료들은 GPT 신경망의 내부 작동을 연구하기 위해 자체적으로 작은 신경망 사본을 만들었다. 이들은 보드 게임인 오델로에서 이뤄졌던 수백만 번의 시합을 텍스트 형식으로 입력해 이 신경망을 훈련시켰다. 그 결과 이 신경망은 거의 완벽한 플레이어가 되었다.  

  

신경망이 정보를 인코딩하는 방법을 연구하기 위해 2016년에 고안한 한 기법을 이용했다. 이들은 주 네트워크를 계층별로 분석하기 위해 미니어처 ‘프로브(probe)’ 네트워크를 만들었다. 프로브 네트워크는 주요 신경망의 내부 정보와 작동 방식을 분석하고 연구하기 위한 도구로 사용하는 작은 신경망이다. 리는 이 접근법을 신경과학적 방법과 비교한다. “이것은 인간의 뇌에 전기 탐침을 삽입하는 것과 비슷합니다.”라고 그는 말한다. 인공지능의 경우, 이 탐침은 비록 복잡한 형태이긴 하지만 ‘신경 활동’이 오델로 게임 보드의 표현과 일치하는 것으로 나타났다. 이를 확인하기 위해 연구진은 게임에서 검은색 마커 조각 중 하나를 흰색 마커로 뒤집는 등 네트워크에 정보를 주입하기 위해 프로브를 역방향으로 실행했다(프로브는 정보가 어떻게 인코딩되었는지 살피는 데 이용하는데, 이 경우엔 프로브를  역방향으로 실행해 특정 정보를 주입한 것이다.). “기본적으로 우리는 언어 모델의 뇌를 해킹한 것입니다.”라고 리는 말한다. 네트워크는 그에 따라 움직임을 조정했다. 연구진은 이 시스템이 대략 인간처럼 오델로를 플레이하고 있다는 결론을 내렸다. 시스템은 마치 머릿속에 게임판을 그려놓고, 이것을 이용해 움직임을 평가했다. 리는 시스템이 이 기술을 학습한 이유는 학습 데이터에 대한 가장 근사한 설명이기 때문이라고 말한다. “게임 스크립트가 많이 주어지면 그 뒤에 숨어 있는 규칙을 알아내는 것이 압축을 위한 가장 좋은 방법입니다.”라고 그는 덧붙인다. (즉, 게임 스크립트나 게임의 진행 데이터와 같은 대량의 정보가 주어졌을 때, 데이터의 규칙이나 패턴을 파악하는 것이 그 정보를 효과적으로 압축하고 이해하는 가장 좋은 방법이라는 것을 의미한다. 다시 말해, 여러 게임의 진행 상황이나 데이터를 보면서 그 안에 숨겨진 규칙이나 전략을 찾아내는 것이 그 데이터를 간결하게 표현하고 이해하는 데 도움이 된다는 것이다.)

 

외부 세계의 구조를 추론하는 능력은 단순한 게임 플레이에만 국한되는 것이 아니라 대화에서도 나타난다. 매사추세츠공과대학의 벨린다 리(Belinda Li)와 동료들은 텍스트 기반 어드벤처 게임을 플레이하는 네트워크를 연구했다. 이들은 "열쇠는 보물상자에 있다(The key is in the treasure chest)”와 같은 문장을 입력하고, 그 다음 "열쇠를 가져가시요(You take the key.)라는 문장을 입력했다. 연구진은 프로브를 사용하여 네트워크가 각각 열쇠를 가지고 있는지 여부에 따라 ‘상자(chest)’와 ‘당신(You)’에 해당하는 변수를 인코딩하고 이러한 변수를 문장별로 업데이트한다는 사실을 발견했다. 이 시스템은 상자나 열쇠가 무엇인지 알 수 있는 독립적인 방법이 없었지만, 이 작업에 필요한 개념을 파악했다. “모델 내부에 숨겨진 상태의 표현이 있습니다.”라고 벨린다 리는 말한다. 

 

* “모델 내부에 숨겨진 상태의 표현이 있습니다.”의 의미는 모델 내부에 그 상태나 정보를 표현하는 어떤 내부적인 구조나 메커니즘이 존재한다는 것을 의미한다. 글의 예시에서, “The key is in the treasure chest”라는 문장이 주어졌을 때, 신경망은 이 문자들을 통해 “chest”와 “you”라는 변수를 내부에 인코딩한다. 이 변수들은 각각 키를 가지고 있는지 아닌지라는 속을 가지게 되며, 문장이 주어질 때마다 이 변수들의 상태가 업데이트 된다. 즉, 이 모델의 외부 세계의 상태나 정보를 내부적으로 어떤 형태로 표현하고 있으며, 그 표현은 모델의 내부에 숨겨져 있다는 것을 의미한다. 이렇게 모델 내부에 숨겨진 표현은 입력된 문장이나 데이터를 바탕으로 그 상황이나 상태를 이해하고 반영하는 데 사용된다. (옮긴이 주)

 

연구원들은 LLM이 텍스트로부터 얼마나 많은 것을 학습할 수 있는지에 놀라움을 금치 못한다. 예를 들어, 파블릭과 당시 박사 과정 학생이었던 로마 파텔은 이러한 네트워크가 인터넷 텍스트에서 색상 설명을 흡수해 내부적으로 색상을 표현한다는 사실을 발견했다. 이들은 ‘빨간색’이라는 단어를 볼 때 단순히 추상적인 기호가 아니라 적갈색, 진홍색, 자홍색, 녹(rust)색 등과 특정 관계가 있는 개념으로 처리한다. 이를 증명하는 것은 다소 까다로웠다. 연구진은 네트워크에 프로브를 삽입하는 대신 일련의 텍스트 프롬프트에 대한 프로브 반응을 연구했다. 시스템이 단순히 온라인을 참조해 색상 관계를 반영하는 것인지 확인하기 위해 ‘어떤 이의 빨간색이 다른 이에겐 녹색이다’라는 오래된 철학적 사고 실험처럼 빨간색이 실제로는 녹색이라고 말함으로써 시스템의 잘못을 유도해 보았다. 답을 앵무새처럼 되풀이하는 대신 시스템은 올바른 색상 관계를 유지하기 위해 적절하게 변경되었다. 

 

* "어떤 이의 빨간색이 다른 이에겐 녹색이다"라는 철학적 사고 실험은 개인의 주관적 경험이나 인식에 대한 문제를 다룬다. 이 사고 실험은 우리가 색상을 어떻게 경험하고 인식하는지, 그리고 다른 사람이 동일한 색상을 어떻게 경험하는지에 대한 근본적인 의문을 제기한다. 예를 들어, 두 사람이 모두 어릴 때 '빨간색'이라고 배웠을 때, 그들이 눈으로 보는 '빨간색'의 느낌이 서로 같다고 확신할 수 있을까? 한 사람에게는 빨간색이 다른 사람에게는 녹색처럼 보일 수도 있을 것이다. 그렇다면, 그들은 언어를 통해 같은 색상에 대해 같은 이름을 부르겠지만, 그들의 실제 경험이나 느낌은 다를 수 있다는 주장이다. 이 사고 실험은 개인의 주관적 경험이 공통적인 경험과 어떻게 다를 수 있는지, 그리고 이런 주관적 경험을 어떻게 확인하거나 논증할 수 있는지와 같은 철학적 문제를 탐구하는 데 사용된다. (옮긴이 주)

 

자동 수정 기능을 수행하기 위해 시스템이 학습 데이터의 기본 논리를 찾는다는 점에 착안한 마이크로 리서치의 머신 러닝 연구원 세바스티앙 부벡(Sebastien Bubeck)은 데이터의 범위가 넓을 수록 시스템이 더 일반적인 규칙을 발견할 수 있다고 제안한다. “아마도 우리가 이렇게 큰 도약을 목격하고 있는 것은 데이터의 다양성에 도달했기 때문일 것입니다. 이 모든 데이터의 유일한 기본 원칙은 지적인 존재가 데이터를 생성했다는 것입니다.”라고 그는 말한다. “따라서 모든 데이터를 설명할 수 있는 유일한 방법은 [모델이] 지능화 되는 것입니다.”

 

* 부벡의 주장은 다양한 데이터를 학습하면, 모델은 그 데이터를 생성한 지능 있는 존재의 원칙을 이해하려고 시도하고, 그 결과 스스로 지능을 발달시키게 된다는 것이다. (옮긴이 주)

 

언어의 근본적인 의미를 추출하는 것 외에도 LLM은 즉석에서 학습할 수 있다. 인공지능 분야에서 ‘학습(learning)’이라는 용어는 일반적으로 개발자가 신경망을 기가바이트 단위의 데이터에 노출하고 내부 연결을 조정하는 계산집약적인 프로세스에 사용된다. ChatGPT에 명령어를 입력할 때쯤이면 네트워크는 고정되어 있어야 하며, 인간과 달리 계속 학습해서는 안된다. 따라서 LLM이 실제로 사용자의 프로프트를 통해 학습한다는 사실, 즉 상황 내 학습이라는 기능이 놀랍지 않을 수 없었다. “이는 이전에는 존재하지 않는 것으로 이해되었던 다른 종류의 학습입니다.”라고 인공지능 회사인 SingularityNET의 설립자 벤 괴르첼(Ben Goertzel)은 말한다. 

 

LLM이 학습하는 방법의 한 가지 예는 ChatGPT와 같은 챗봇과 인간이 상호작용하는 방식에서 찾을 수 있다. 시스템이 어떻게 반응하기를 원하는지 예시를 제시하면 시스템은 이에 따른다. 이 시스템의 결과물은 이전에 보여주었던 수천 개의 단어에 의해 결정된다. 이러한 단어가 주어졌을 때 수행하는 작업은 고정된 내부 연결에 의해 규정되지만, 그럼에도 불구하고 단어 순서는 어느 정도 적응성을 제공한다. 모든 웹사이트는 시스템의 '가드레일’(guardrails: 언어 모델이 위험하거나 부적절한 정보를 제공하는 것을 방지하기 위해 내장된 제한 또는 안전장치. 예를 들어, 사용자가 폭탄 제작 방법에 대해 물어보면 모델은 그 정보를 제공하지 않도록 제한한다)을 극복하는 '탈옥’ 프롬프트(jailbreak prompts: 언어 모델의 기본 제한을 우회하기 위해 사용되는 특별한 입력 방식)에 전념하고 있으며, 일반적으로 모델에 가드레일이 없는 시스템인 것처럼 보이도록 지시한다. 어떤 사람들은 탈옥을 부적절한 목적으로 사용하기도 하지만, 다른 사람들은 더 창의적인 답을 이끌어내기 위해 활용하기도 한다. 플로리다 애틀랜틱 대학교의 기계 인식 및 인지 로봇 연구소의 공동 책임자인 윌리엄 한(William Hahn)은 특별한 탈옥 프롬프트 없이 직접 질문할 때보다 "과학적 질문에 더 잘 답할 수 있다"고 말한다. “학문적인 질문에 더 높은 수준의 답변을 내놓습니다.”

 

또 다른 유형의 맥락기반학습(in-context learning)은 “생각의 연쇄” 프롬프트를 통해 이루어지며, 이는 네트워크에 추론의 단계를 요청하는 것으로, 여러 단계가 필요한 논리나 산술 문제를 더 잘 처리할 수 있도록 하는 전략이다. (하지만 밀리에르의 사례가 놀라웠던 이유는 네트워크가 이런 코칭 없이도 피보나치수를 찾아냈다는 점이다.)

 

예를 들어, AI에게 "2와 3을 더한 다음 그 결과에 5를 곱하면 얼마야?” 라고 질문을 했다고 가정해보자.

 

"생각의 연결(chain of thought)" 방식으로 답변하면, 

 

먼저 2와 3을 더합니다.

2 + 3 = 5

그 다음, 그 결과인 5에 5를 곱합니다.

5 x 5 = 25

따라서, 최종 결과는 25입니다.

 

이렇게 "생각의 연결" 방식을 사용하면 AI는 그것이 어떻게 해당 답변을 도출했는지의 전체적인 과정을 보여줄 수 있다. 이는 특히 복잡한 문제나 여러 단계의 계산이 필요한 문제를 해결할 때 유용하다. 사용자는 AI의 추론 과정을 이해하고, 필요한 경우 그 과정을 검토하거나 수정할 수 있다.

 

2022년 구글 리서치와 취리히의 스위스 연방 공과대학 연구팀은 맥락기반학습이 표준 학습과 동일한 기본 계산 절차, 즉 경사하강법(gradient descent)을 따른다는 사실을 보여주었다. 이 절차는 프로그래밍되지 않았으며 시스템이 도움없이 스스로 발견했다. “이는 학습된 기술이어야 합니다.”라고 구글 리처치의 부사장인 블레이즈 아지에라 이 아레아스는 말한다. 사실 그는 LLM이 아직 아무도 발견하지 못한 다른 잠재적 능력을 가지고 있을지도 모른다고 생각한다. “우리가 정량화할 수 있는 새로운 능력을 테스트할 때마다, 우리는 그러한 점을 발견합니다.”라고 그는 말한다. 

 

* 경사하강법(gradient descent)은 기계 학습과 딥 러닝에서 사용되는 최적화 알고리즘 중 하나다. 이 알고리즘의 목적은 주어진 함수(대부분 손실 함수 또는 비용 함수라고 함)의 최소값을 찾는 것이다. 경사하강법을 좀더 간단하게 설명하면, 산 정상에서 가장 낮은 지점인 계곡의 바닥으로 내려가는 것과 비슷한 원리로 작동한다. 당신은 계곡으로 내려가는 길을 모르기 때문에 현재 서 있는 위치에서 가장 경사가 가파른 방향으로 조금씩 내려간다. 이렇게 계속해서 가장 경사진 방향으로 조금씩 내려가면 결국 가장 낮은 지점에 도달하게 도니다. 경사하강법은 이와 비슷한 원리로, 오차를 최소화하기 위해 가장 큰 오차 감소 방향으로 조금씩 움직이면서 최적의 해답을 찾아간다. (옮긴이 주)

 

LLM은 인공일반지능(AGI, 동물 뇌 정도의 영리함을 가진 기계를 일컫는 용어)이라고 하기에는 맹점이 많지만, 일부 연구자들은 이러한 새로운 능력을 통해 낙관론자들이 생각했던 것보다 인공일반지능에 더 가까워졌다는 것을 시사한다. 지난 3월 플로리다 애틀랜틱 대학교에서 열린 딥 러닝 관련 컨퍼런스에서 괴르첼은 "우리가 인공일반지능과 그리 멀지 않았다는 간접적인 증거입니다."라고 말했다. OpenAI의 플러그인을 통해 ChatGPT는 인간의 뇌와 유사한 모듈식 아키텍처를 갖추게 되었다. M.I.T.의 연구원 안나 이바노바는 "GPT-4[ChatGPT를 구동하는 최신 버전의 LLM]와 다양한 플러그인을 결합하는 것이 인간과 같은 기능 전문화를 향한 경로가 될 수 있습니다."라고 말한다. 

 

하지만 동시에 연구자들은 이러한 시스템을 연구할 수 있는 기회가 줄어들고 있다고 우려하고 있다. OpenAI는 다른 국가는 말할 것도 없고 구글 및 다른 회사와 경쟁하고 있기 때문에  GPT-4를 설계하고 훈련한 방법에 대한 세부 사항을 공개하지 않았다. "아마도 산업계의 공개적인 연구는 줄어들고, 제품 개발 중심으로 더욱 고립되고 조직화될 것입니다."라고 자신의 직업 기술을 AI 이해에 적용하고 있는 M.I.T.의 이론 물리학자 댄 로버츠는 말한다. 

 

산타페 연구소의 미첼은 이러한 투명성 부족이 연구자에게만 피해를 주는 것이 아니라고 말한다. 또한 급격한 AI 기술 도입의 사회적 영향을 이해하려는 노력에도 방해가 된다. "이러한 모델에 대한 투명성은 안전을 보장하는 가장 중요한 요소입니다." (김명호 옮김)

 

-출처-

George Musser. An AI Mystery. Scientific American. Sep 9. 2023.