본문 바로가기
텍스트/과학-과학사

이론적인 인공지능의 해악은 현재의 위협으로부터 주의를 돌리게 한다

by 명랑한 소장님 2024. 2. 16.

 

그림 김명호

인류를 종식시킬 인공지능의 잠재력에 대한 두려움은 인공지능이 이미 초래한 실제 피해를 가리고 있다

 

잘못된 체포, 확대되는 감시망, 명예훼손과 딥페이크 포르노그래피는 현재 사용하고 있는 인공지능 도구에 존재하는 위험들이다. 이런 문제들은 인류를 멸망시킬 수 있다는 상상 속의 잠재력이 아니라 현재의 인공지능이 갖는 실제하는 위협이다. 

 

여러 인공지능 회사들을 둘러싼 세상의 종말에 대한 과장된 경고가 있지만, 이미 인공지능 기술은 주거, 사법 및 의료 분야에서 일상적인 차별을 비롯해 비영어권 언어에서의 혐오 발언과 잘못된 정보를 확산시키는 등의 무수한 피해를 낳고 있다. 근무 시간을 정확하게 기록하지 않거나, 수행한 작업에 대한 충분한 임금을 지급하지 않는 등 노동자들에게 불리하게 작용하는 알고리즘 관리 프로그램의 피해에 사람들은 노출되어 있으며, 이러한 프로그램은 점점 더 널리 퍼지고 있다. 

 

그럼에도 불구하고 지난해 비영리 기관인 인공지능 안전 센터(Center for AI Safety)는 수백 명의 업계 리더가 참여한 공동 성명서를 발표하며 “인공지능으로 인한 멸종 위험”을 경고했다. 이는 핵전쟁이나 전염병의 위협과 비슷하다고 주장했다. 인기 있는 언어학습 모델인 챗지피티(ChatGPT)의 개발사 오픈 에이아이(Open AI)의 경영자인 샘 알트먼은 이전 의회 청문회에서 이런 위험을 암시하며 생성형 인공지능 도구가 “상당히 잘못될 수 있다”고 주장한 바 있다. 지난 여름 인공지능 회사의 임원들은 조 바이든 대통령과 만난 자리에서 “인공지능 위험의 가장 중요한 원인”을 줄이기 위한 몇 가지 자발적인 약속을 했다. 

 

기업 인공지능 연구소는 가상의 시나리오로 규제 당국의 관심을 돌리고 “실존적 위험”과 같은 공포를 조장하는 단어를 쓴 가짜 과학 연구 보고서로 이러한 태도를 정당화 한다. 

 

대중과 규제 기관은 이러한 수법에 넘어가선 안된다. 오히려 우리는 동료 평가를 실천하고, 인공지능에 대한 과대 광고를 반박하며, 현재 여기서 인공지능의 해로운 영향을 이해하려 노력하는 학자와 활동가들을 주목해야 한다. 

 

“인공지능(AI)”이란 용어는 모호하기 때문에 이것에 대해 명확히 논의하는 것은 어렵다. 어떤 의미에서는 컴퓨터 과학의 한 하위 분야를 지칭하기도 한다. 다른 의미로는 해당 하위 분야에서 개발된 컴퓨팅 기술을 지칭할 수 있으며, 현재 대부분은 대규모 데이터 세트를 기반으로 한 패턴 매칭과 이러한 패턴에 기반한 새로운 미디어 생성에 초점을 맞추고 있다. 그리고 광고 카피와 스타트업의 투자유치 설명회에서 “인공지능” 용어는 비즈니스를 강화하는 마법의 요정 가루와 같은 역할을 한다. 

 

2022년 말 오픈 에이아이가 챗지피티를 출시한 이후(그리고 마이크로소프트가 이 도구를 빙(Bing) 검색 엔진에 통합한 이후) 텍스트 조합 기계는 가장 주목받는 인공지능 시스템으로 부상했다. 챗지피티와 같은 대규모 언어 모델은 놀라울 정도로 유창하고, 일관성 있어 보이는 텍스트를 내놓지만 추론 능력은 물론이고 그 텍스트의 의미를 전혀 이해하지도 못한다. 이러한 시스템은 우리가 보내는 텍스트를 질문으로 구성하고 그 결과를 답변으로 해석하면서 가지고 노는 거대한 매직 나인볼(Magic 8 Balls: 운명을 점치는 장난감으로, 질문을 하고 흔든 후 나오는 답변을 통해 미래를 예측하는 놀이 도구)과 같다. 

 

안타깝게도 이런 결과물은 매우 그럴듯해서 그 출처를 명확히 밝히지 않으면 정보 생태계를 오염시키는 유해한 물질이 될 수 있다. 인공지능이 조합한 텍스트를 신뢰할 수 있는 정보로 착각할 위험이 있을 뿐만 아니라, 이러한 비정보는 인공지능 학습 데이터에 인코딩된 편견(대규모 언어 모델의 경우 인터넷에서 발견되는 모든 종류의 편견)을 반영하고 증폭시킬 수 있다. 게다가 이런 조합 텍스트는 실제 출처를 인용하지 않았음에도 불구하고 권위있는 것처럼 들린다. 이런 조합 텍스트가 오래 지속적으로 유출될수록 신뢰할 수 있는 출처는 찾기가 더 어려워지고, 찾더라도 신뢰하기가 어렵기 때문에 피해는 더욱 커진다. 

 

이 기술을 판매하는 사람들은 텍스트 조합 기계가 교육 현장에서의 교사 부족, 저소득층의 의료 서비스 접근성 부족, 변호사를 선임할 수 없는 사람들을 위한 법률 지원 부족 등 우리 사회 구조의 다양한 문제점을 해결할 수 있다고 주장한다. 

 

그러나 이런 기술의 도입은 근로자에게 실제로 피해를 준다. 우선, 이 시스템은 엄청난 양의 훈련 데이터에 의존하는데, 이 데이터를 만든 예술가와 저작자는 아무런 보상이 없이 도용당하고 있다. 또한, 인공지능 시스템에 유해한 결과물이 공개되는 것을 막기 위한 ‘가드레일’을 만들기 위해선 데이터에 라벨을 붙이는 작업을 해야 한다. 이 작업은 전세계에서 임금과 근로 조건이 최하위에 내몰려있는 노동자들이 반복적이고 종종 트라우마를 일으키는 노동에 기반한다. 게다가 고용주들은 자동화를 활용하여 비용을 절감하고, 이전에 안정적으로 일하던 사람들을 해고했다가 다시 저임금 노동자로 고용하여 자동화 시스템의 생산량을 조정하는 방법을 모색하고 있다. 이런 시나리오는 최근 할리우드에서 벌어진 배우와 작가들의 파업을 촉발시켰다.  엄청난 돈을 긁어 모으는 업계 괴물들은 하루 일당으로 인공지능으로 대체된 배우를 사용할 수 있는 영구적인 권리를 사들이려 했고, 임시직으로 작가들을 조각조각 고용하여 인공지능이 만들어낸 일관성 없는 대본을 수정하도록 했다. 

 

인공지능 관련 정책은 과학에 기반하고 관련 연구를 바탕으로 수립되어야 하지만, 기업 연구소나 불균형적인 업계 자금을 지원받는 학술 단체에서 나온 인공지능 관련 출판물이 너무 많다. 이런 출판물 중 상당수는 재현 불가능하고, 영업 비밀 뒤에 숨어 있으며, 과대 광고로 가득 차 있고, 측정하고자 하는 것에 측정할 수 없는 평가 방법을 사용하는 등의 정크 과학에 기반을 두고 있다.

 

최근 사례로 마이크로소프트 리서치에서 발표한 “범용 인공지능의 불꽃: 챗지피티-4를 이용한 초기 실험(Sparks of Artificial General Intelligence: Early Experiments with GPT-4)”이라는 제목의 155페이지 분량의 사전 인쇄 논문이 있다. 여기서 그들은 오픈에이아이의 텍스트 조합 기계 중 하나인 챗지피티-4의 결과물에서 ‘지능’을 발견했다고 주장한다. 그리고 챗지피티-4에 대한 오픈에이아이의 자체 기술 보고서도 있는데, 여기에는 무엇보다도 오픈에이아이 시스템이 학습 데이터에서 찾을 수 없는 새로운 문제를 해결할 수 있는 능력이 있다고 주장한다. 오픈에이아이는 해당 데이터에 대한 액세스나 설명조차 제공하지 않기 때문에 아무도 이 주장을 확인할 수 없다. 한편 ‘인공지능 파멸론자’들은 이런 정크 과학을 인용해 전능한 기계가 악의적으로 변해 인류를 파괴할 수 있다는 환상에 전 세계의 관심을 집중시키고 있다. 

 

우리는 빈곤층의 권리 상실과 흑인 및 원주민 가정에 대한 경찰 활동 강화를 포함해 자동화 시스템에 권한을 위임함으로써 발생할 수 있는 인공지능의 해악과 위험을 조사하는 데 있어 정책 입안자들이 탄탄한 학문을 바탕으로 정책을 수립할 것을 촉구한다. 사회과학과 이론 구축을 포함한 이 분야의 탄탄한 연구와 이를 바탕으로 한 견고한 정책은 이 기술이 사람들에게 해를 끼치는 데 사용되지 않도록 하는 데 초점을 맞출 것이다. (김명호 옮김)

 

* 저자 알렉스 한나(Alex Hanna)는 분산 AI 연구소의 연구 책임자로 인공지능 시스템의 기반이 되는 데이터를 구축하는 노동과 이러한 데이터가 기존의 인종, 성별, 계급 불평등을 어떻게 악화시키는지에 초점을 맞추고 있다. 또다른 저자 에밀리 M. 벤더(Emily M. Bender)는 워싱턴 대학교의 언어학 교수로 컴퓨터 언어학 및 언어 기술의 사회적 영향을 전문으로 연구한다.

 

* 출처: Alex Hanna and Emily M. Bender. Theoretical Al Harms Are a Distraction. Scientific American. Feb 2024. 

 

'텍스트 > 과학-과학사' 카테고리의 다른 글

왜 챗봇은 나쁜 행동을 할까  (0) 2024.03.05
사실에 대한 짧은 역사  (0) 2024.03.03
인공지능의 미스터리  (2) 2023.12.08
치매를 변호하다  (0) 2023.11.23
혼란을 가리다  (1) 2023.11.14