인공지능(AI)과 군비 경쟁 *
오해의 소지가 있게도 인공지능AI이라 불리는 것을 생산하는 산업은 오늘날 세계경제에서 비교 대상을 찾기 어려울 만큼 위기·경쟁·전쟁에 대한 병적인 망상과 긴밀히 얽혀 있고, 여러 가지로 이를 확인할 수 있다. 도널드 트럼프의 취임식에서 헤벌죽 웃으며 그의 뒤에 서 있던 빅테크 기업가들, 세계적 규모로 벌어지는 “반도체 전쟁”, 쇠퇴하는 영국의 생산성을 AI로 반등시킬 것이라고 떠드는 영국 노동당 정부, 이스라엘이 가자지구 내에서 자동화된 암살 공장을 가동하는 것까지.
이 글에서는 최근 AI 관련 투자 급증의 기반이 된 글로벌 제조업 변화, 특히 첨단 디지털 경제의 변화에 대한 분석에 기초해 AI 산업을 간략히 개괄할 것이다. AI가 전례 없이 참신한 기술이라는 기존 설명과 달리, 이 글은 AI 산업 발전이 점진적인 누적 과정임을 강조할 것이다. 현재 AI 관련 투자와 생산이 폭발적으로 증가할 수 있었던 것도 그런 과정의 결과다.
다음 이야기는 19세기에 세계적으로 진행된 산업 기계 시스템의 발전에 관한 칼 마르크스의 논의를 조금이라도 아는 사람이라면 익숙할 내용이다. 그 과정에는 전 지구적 규모로 방대한 양의 원자재, 에너지, 물, 노동이 투입됐으며, 수백만 명의 노동자가 공장으로 빨려 들어왔고, 동시에 새로운 영역에서 투쟁과 조직화가 시작됐다. 이 시대의 기계들도 오늘날의 AI 시스템처럼 노동자들의 창조적 능력, 신체적 숙련도, 정신적 기술을 체계적으로 도용했고 사람들은 그 기계들을 마치 이질적이고 초인적인 존재로 여겼다. 마르크스는 다음과 같이 묘사했다.
공장 건물 전체를 가득 채우는 기계 괴물이 이제 개별 기계들을 대체했고, 그 괴물의 악마적 힘은 처음에는 거대한 팔다리들의 느릿느릿하고 절제된 움직임 속에 숨어 있지만, 곧 무수한 작동 기관의 광란적인 난무로 그 모습을 드러낸다. 1
AI 개발에 막대한 규모의 인간 노동, 에너지, 자원이 투입되는 것을 고려하면, AI 산업과 함께 강력한 기계 숭배 이데올로기가 부상한 것은 전혀 놀라운 일이 아니다. 그러나 AI 산업의 가장 두드러진 특징은 여러 자본과 국가 간의 점점 격렬해지는 경쟁이 생산 공정의 모든 단계에 스며들고 있다는 점이다. 또한 이 경쟁은 장기화된 복합 위기 속에서 벌어지고 있고, 이로 인해 산업적인 수단과 목적이 군사적인 것들과 융합되는 압력이 커지고 있다.
추론 산업 이해하기
‘인공지능’이라는 용어에는 특정한 함의와 선입견이 담겨 있고, 오늘날에는 AI가 인간 노동의 산물이 아니라 새로운 종류의 지능이라는 과장을 떨쳐내기가 쉽지 않다. 2 이 글은 최근 학계의 울타리를 넘어 산업계로 도약한 AI 연구 내 특정 분야, 즉 초대형 기계학습ML 모델 생산을 중심적으로 다룰 것이다. 기계학습은 통계적 추론을 통해 분류와 예측을 하는 컴퓨터 과학의 한 분야다. 지난 10년간 이미지와 텍스트 분류에 활용된 기계학습 시스템의 발전으로 대형 기계학습 모델을 산업적으로 생산할 기반이 마련됐고 오픈AI의 챗GPT, 구글의 제미나이, 앤트로픽의 클로드, 알리바바의 Qwen, 딥시크의 R1 등의 서비스가 등장할 수 있었다.
현재의 챗봇 열풍보다 훨씬 더 중요하고 더 큰 영향을 미칠 가능성이 있는 것은 대규모 언어 모델LLM의 생산 과정에 깔려 있는 원리이다. AI 산업 전반에서 기업들과 국가들은 최근 AI 모델 성능의 비약적인 발전이 네트워크 인프라, 에너지, 물, 컴퓨팅 능력, 훈련 데이터를 극적으로 더 많이 투입한 결과라는 결론을 내렸다. 그렇다고 해서 투입 요소를 늘리면 그만큼 발전이 이뤄진다거나, 하나의 “만능 기술”(예컨대, 반도체 나노미터당 트랜지스터 집적도 증가)을 발전시키면 AI가 발전한다는 식으로 단순하게 이해해서는 안 된다. AI 생산 과정은 기술적·사회적·정치적 요소가 복잡하고 혼란스럽게 상호작용에 큰 영향을 받는다. 그러나 종합적 추세로 볼 때 분명히 AI 기술 경쟁에서 투자가 얼마나 크고 지속적이냐가 중요한 요소라는 점은 분명하다.
아래에서는 AI 생산이라는 새로운 산업의 부상이 기존의 여러 첨단 분야(예컨대, 데이터 센터)를 어떻게 변화시켰는지, 전기·물·컴퓨터 하드웨어 소비량을 어떻게 기하급수적으로 증가시켰는지, 훈련 데이터 라벨링 공장에서 어떻게 완전히 새로운 착취 체계를 창출했는지 추적한다. AI 산업은 또한 채굴·물류·운송 분야에서 수백만 노동자를 동원한다. AI 생산의 모든 과정에서 광물·천연자원의 게걸스러운 추출, 자본이 더욱 집적·집중되는 패턴이 반복적으로 나타난다. 기계학습 모델이 생산되는 데이터 센터들은 노동 대비 고정 자본(부동산, 공장, 장비) 비율이 극히 높은 것이 특징이다. 데이터 센터들은 화석연료, 석유화학, 플라스틱, 반도체 등 마찬가지로 고정자본 비율이 높은 다른 산업 사슬들의 끝단에 위치하며, 그 모든 산업이 기계학습 모델 생산의 필수 전제 조건이다.
여기서 “모델”이란 확률값 모음과 이를 생성하는 데 필요한 수학적 함수를 가리킨다. LLM에서 모델이란 주어진 텍스트 뭉치의 구성 요소 간 통계 관계를 기술한 것으로, 이를 이용해 다음에 어떤 단어가 이어져야 적절할지 예측한다. 현재 대규모 언어 모델에서는 이러한 확률을 계산할 때 실제로는 단어가 아니라 단어의 일부분(자연어 처리 분야에서 ‘토큰’이라 부른다)을 기본 단위로 삼는다. 이렇게 얻은 확률값들을 이용해 새로운 텍스트를 생성할 수 있으며, 사실상 훈련 데이터 내 토큰 배열과 통계적으로 유사한 문자와 공백의 조합을 생성하는 것이다. 3 충분히 방대하고 다양한 텍스트 뭉치를 훈련 데이터로 사용하면, 그 텍스트의 내적 연관을 통계적으로 기술해 내 훨씬 더 광범위한 작업에 활용할 수 있다. 현재의 모델들은 수십억 개의 토큰 간 관계에 대한 통계를 바탕으로 이어질 단어들을 예측하며 결과물을 내놓고 있고, 그것이 마치 기계가 언어를 사용하고 있는 것처럼 보이는 것이다. 4
이미지들의 뭉치에 대해서도 비슷한 방식으로 모델을 만들 수 있다. 이 경우 계산 방식은 약간 달라지지만, 전반적 방법은 동일하다. 수많은 통계량과 이를 생성하는 수학적 함수를 이용해 전체 이미지 뭉치의 픽셀 간 관계를 총체적으로 기술한다. 텍스트의 경우와 마찬가지로 이런 통계를 바탕으로 사용자들은 (이미지를 통계적 유사도, 즉 ‘가장 거리가 가까운 이웃’에 따라 정렬해) 전체 이미지 뭉치에서 자신이 원하는 것을 검색할 수 있다. 또한 몇 가지 추가 작업을 통해 모델에 이용된 훈련 데이터와 통계적으로 유사한 배열로 픽셀을 조합해 새로운 이미지를 생성할 수도 있다. 이러한 픽셀 배열은 실제 사물이나 인물, 장소와 동일해 보일 가능성이 매우 높다. 5 그러나 기계학습 모델을 이렇게 활용하는 것은 앨런 튜링이 “모방 게임”이라 부른 것의 신속 버전에 불과하다. 다시 말해 통계적 추론 기법을 활용해, 인간이 ‘고양이 사진’이나 ‘셰익스피어의 인용문’으로 분류할 가능성이 가장 높은 픽셀이나 문자의 조합을 찾는 속도를 높였을 뿐이다. 6
방대하고 다양한 훈련 데이터셋dataset으로 훈련된 초대형 모델을 흔히 기초 모델이라 부르는데, 그 모델이 매우 다양한 작업에 활용될 수 있기 때문이다. 앞서 언급한 대규모 언어 모델과 텍스트-이미지 변환 모델이 가장 잘 알려진 사례이다. 그 외에도 위성 이미지, 웨어러블 기기 데이터 같은 지리·공간 기반 데이터 등 다양한 종류의 훈련 데이터에 기반한 새로운 형태의 기초 모델들이 지속적으로 개발되고 있다. 7 최근에 이뤄진 모델의 진보는 대부분 투입되는 컴퓨팅 능력과 훈련 데이터를 대대적으로 늘린 결과다. 이러한 대량화가 가능했던 것은 반도체 기술의 발전으로 더 많은 데이터를 더 쉽고 저렴하게 처리할 수 있게 됐고, AI 모델의 기반이 되는 계산 신경망이 더 효율적으로 구축됐기 때문이다.
대형 기계학습 모델을 생산하는 과정에는 시간이 무척 많이 소요된다. 통상적으로 대형 모델은 훈련 단계에서 약 1000 GPU 시간이 필요하다. 이 훈련 단계는 계산 신경망이 향후 예측에 사용될 통계량들을 데이터셋에서 산출하는 과정이다. 이후 “미세 조정” 단계에서 추가로 500 GPU 시간이 소요될 수 있다. 미세 조정 단계는 특정 작업들에 한해 최적화된 결과를 내놓도록 모델을 정교하게 다듬는 과정이다. 다음으로 추론 단계를 위해 추가로 시간과 컴퓨팅 자원이 필요하다. 이 단계는 모델이 질문에 답하거나, 텍스트를 생성하거나, 데이터를 분류하는 과정이다. 8
투입 자원의 규모를 키우려는 노력에는 중요한 의미가 있는데, 새로운 기초 모델 생산을 위한 글로벌 경쟁이 촉발됐기 때문이다. 소버린 AI, 즉 국가의 고유한 언어, 문화유산, 법률을 반영한 특정 데이터셋으로 제작된 기초 모델을 향한 경쟁도 그 일부다. 9 결정적으로 기초 모델의 대규모 생산을 통해, 방대한 비정형의 “뒤죽박죽” 데이터를 프로그래밍 언어로 전환시켜 기계에 명령을 내리는 기법들과 그것의 일반화 잠재력이 발견됐다. 후술하겠지만, 이런 기초 모델 접근법은 디지털 플랫폼 기업들(최근 AI 경쟁을 격화시킨 트랜스포머 신경망 구조를 제시한 2017년 연구 논문의 저자들이 소속된 구글 같은)의 필요와 역량이 맞아떨어지면서 등장했다. 10 미래에는 AI를 생산하는 다른 방식도 분명 나타날 것이고, 과거와 미래의 투자 규모가 아닌 다른 요소들이 중요해지는 국면이 일시적으로라도 찾아올 것이다. 그러나 현재로서는 투입 자원의 규모를 키우는 것이 경제적 경쟁의 격화와 그에 따른 군사적 경쟁의 가속화에서 결정적인 구실을 하고 있다. AI 생산의 규모 확장을 위해 이처럼 국가 간 경쟁과 자본가 간 경쟁이 융합되고 있다는 점은, 기계학습을 사회적 분업의 자동화 문제로만 분석하는 기존 논의에서 대체로 누락된 중요한 측면이다.
대규모 범용 AI 서비스의 탄생은 수십 년간의 누적 투자를 통한 디지털 통신과 분산 컴퓨팅 인프라 구축, 소비자 전자기기 제조 기술 축적, 자연어 처리와 컴퓨터 비전 같은 분야의 연구 성과의 결과다.
대규모 민간과 국가 자본이 전력망, 데이터 네트워크, 데이터 센터를 사용하는 방식이 바뀐 덕분에 기계학습 모델이 산업적으로 생산될 수 있었고, 이는 다시 전력망 등의 인프라를 모델의 생산과 적용을 위해 더욱 빠르게 탈바꿈시키는 요인이 됐다. 2016년 이래로, 기계학습 모델 생산을 뒷받침하기 위한 데이터 센터들의 전력 수요가 기하급수적으로 급증한 것을 보면, 모델 생산 경쟁에서 이기기 위해서는 인프라 투자 능력이 관건이라는 것을 확인할 수 있다. 이 때문에 자본의 집적과 집중 과정은 더욱 진척될 것이고, 기계학습 모델 생산을 위한 전력 수요 부문에서는 이미 확연해지고 있는 패턴이다.
미국 정부와 국제에너지기구IEA의 최근 조사에 따르면, 기계학습 모델 생산으로 인해 데이터 센터의 에너지 수요가 큰 폭으로 변했고, 이러한 변화는 먼저 미국에서 나타났고 이어서 경쟁국들, 특히 중국에서 나타났다. 11 미국은 전체 데이터 센터 전력 수요의 45퍼센트를 차지하며 여전히 비중이 가장 컸고, 그 뒤를 이어 중국이 25퍼센트, 유럽연합EU이 15퍼센트를 차지했다. 12 2010년부터 2017년까지 미국 내 데이터 센터들의 전력 소비량은 매년 거의 증가 없이 대체로 60테라와트시TWh 수준을 유지했다. 이는 데이터 센터의 주된 구실이 데이터를 저장하거나, 비교적 저강도 데이터 연산만을 수행하거나, 데이터 네트워크 연결을 호스팅하는 것이었기 때문이다. 그러나 2017년에서 2023년 사이 미국 데이터 센터 전력 소비는 176TWh로 증가했고, 이는 미국 전체 전력 소비량의 4.4퍼센트에 해당한다. 이 수치는 2028년에는 12퍼센트까지 증가할 것으로 전망된다. 13 전력 사용량의 이런 급격한 증가는 점점 더 거대한 기계학습 모델을 개발하려는 경쟁 때문이다. 거대 모델 생산 과정은 여러 단계에 걸쳐 고강도 컴퓨팅 능력을 요구하기 때문에 많은 전력을 소비한다. 중국 또한 이러한 변화를 겪으면서, 데이터 센터의 전력 수요가 미국과 유사하게 급증했고, 비교적 수동적인 인프라 역할을 하던 데이터 센터가 산업 규모의 연산 장치로 변모했다. 중국 정부의 통계에 따르면, 데이터 센터 전력 소비량은 2022년 77TWh였다가, 2025년에는 150~200TWh로 증가했고, 2030년경에는 400TWh에 이를 것으로 추정됐다. 미국 에너지정보청EIA은 2024년 기준 중국 데이터 센터 전력 수요를 좀 더 보수적으로 100TWh로 추정했으나, 그럼에도 2027년까지 두 배 증가할 것으로 전망했다. 14 미국과 중국에 이어 전 세계 데이터 센터 전력 수요에서 셋째로 큰 비중을 차지하는 EU에서도 데이터 센터 건설 붐이 일고 있고 그에 따라 전력 수요도 증가할 것으로 전망된다. 최근 골드만삭스는 현재 진행 중인 데이터 센터 건설 물결이 향후 10년 동안 유럽의 전력 수요를 10~15퍼센트까지 끌어올릴 수 있다고 추정했다. 15
버클리 연구소의 연구자들이 지적하듯, 현재 데이터 센터가 전체 전력 소비에서 차지하는 비중은 비교적 작지만, 기계학습 모델을 산업적으로 생산하는 데에 필요한 전력 수요를 충족시키는 것은 만만찮은 일이다. 다른 분야에서의 전력 수요도 증가하고 있기 때문인데, 예컨대 전기차 보급, 제조업 온쇼어링[해외로 나갔던 산업을 국내로 복귀시키는 것. 리쇼어링이라고도 함 ― 역자], 수소 활용, 산업·건물에 쓰이는 동력의 전력화 등이 있다. 16 여기에 더해 미국, 중국, EU 세 지역 모두 에너지 집약적인 데이터 센터가 특정 지역에 밀집되면서 생기는 심각한 문제들도 있다. 예컨대, 미국의 경우 전체 데이터 센터 용량의 거의 절반이 다섯 개 지역에 몰려 있다. 17
기계학습 모델 생산을 위한 전력 소비가 확대되면서 전체 에너지 수요도 증가하고 있다. 예를 들어, 지난해 아일랜드 데이터 센터 단지는 아일랜드 전체의 도시 가구가 사용하는 것보다 더 많은 에너지를 소비했다. 18 이로 인해 추가 에너지원을 확보하려는 경쟁 압력도 더욱 강화돼, 발전 부문의 탈탄소화가 지연되거나 좌초될 위험이 높아졌다. 19 대형 기계학습 모델을 생산하는 신종 슈퍼컴퓨터들이 자리한 캠퍼스는 엄청나게 많은 에너지를 소비한다. 일론 머스크의 기업 xAI가 보유한 슈퍼컴퓨터 ‘콜로서스’는 인구 25만 명 규모의 도시 하나가 사용하는 에너지와 맞먹는 에너지를 소비한다. 20 2024년 9월 마이크로소프트는 재가동된 스리마일섬 핵발전소에서 생산되는 에너지의 100퍼센트를 향후 20년 동안 자사의 기계학습 모델 생산을 위해 사용하기로 계약을 체결했다고 발표했다. 21 AI 투자 붐은 미국에서 석탄 화력발전소의 재가동으로 이어지고 있다. 트럼프는 생산 속도를 유지하기 위해 “깨끗하고 아름다운 석탄”이 필수적이라 주장하며 이를 전폭적으로 지지하고 있다. 22
데이터 센터 냉각에 필요한 막대한 양의 물을 확보하기 위한 경쟁에서도 매우 유사한 패턴이 나타나고 있다. 스페인의 활동가들은 “너의 클라우드가 나의 강을 말린다!”Tu Nube Seca Mi Río라는 구호 아래 조직화하고, 아마존과 같은 대기업들이 매년 수백만 리터의 물을 퍼다 쓰고 있는 상황을 멈추기 위해 데이터 센터 건설 중단을 요구하고 있다. 미국 데이터 센터 산업 단지는 애리조나주 메사처럼 극심한 가뭄을 겪는 지역에 밀집돼 있다. 23 데이터 센터의 물 소비율을 높이는 핵심 요인은 바로 기계학습 모델 생산이다. 기술 기업들은 “물 소비 제로” 시설을 도입하고 있다고 주장하지만, 실제로는 수랭식 냉각이 훨씬 더 효율적이라는 점 때문에 공랭식보다 선호되고 있고 특히 기계학습 작업에서 그렇다. 24
반도체 전쟁:
물리 법칙의 한계에 도달하기 위한 끝없는 자원 투입
기계학습 모델을 산업 규모로 생산하게 되면서 최첨단 반도체에 대한 수요가 급증했고, 이로 인해 고도로 자본 집약적인 산업 공정의 수십 년에 걸친 발전이 최고조에 달했다. 1971년 인텔이 첫 번째 상업용 마이크로프로세서인 ‘4004’를 출시했을 때, 이 반도체에는 약 10마이크로미터µm 크기의 트랜지스터 2,300개가 들어 있었다. 10년이 채 지나지 않아 트랜지스터의 크기는 1µm로 줄어들었고, 제조업체들은 개별 반도체에 최대 10만 개의 트랜지스터를 집적했다. 이러한 기하급수적 성장이 계속돼, 1990년대에는 반도체 당 100만 개의 트랜지스터에 도달했고, 2000년대 초에는 1,000만 개, 그로부터 10년 뒤에는 반도체 하나에 1억 개에 이르렀다. 25 오늘날 반도체 제조업체들은 일반적으로 제곱밀리미터당 1억 개의 트랜지스터를 집적하는 5나노미터nm 공정을 사용하며, 이미 3nm 공정도 빠르게 업계 표준으로 자리 잡고 있다. 대만의 TSMC는 2nm 공정 생산을 시작하겠다고 공언하며, 이를 통해 기존의 최첨단 반도체보다 10~15퍼센트의 성능 향상, 25~30퍼센트의 전력 소비량 감소, 15퍼센트의 트랜지스터 밀도 증가를 이룰 수 있을 것이라고 주장했다. 26
2nm 공정을 양산하겠다는 TSMC의 발표는 여러 측면에서 중요한 의미가 있다. 이는 극도로 전문화된 반도체 제조 부문(파운드리)에서 TSMC의 지배적 위치를 다시 한번 확인시켜 준다. TSMC는 2024년 전 세계 반도체 제조 시장의 64퍼센트를 차지했으며, 최첨단 반도체 생산에서는 사실상 독점적 지위를 누리고 있었다. 27 TSMC의 반도체는 애플, 엔비디아, 퀄컴을 비롯한 많은 주요 기업들이 만드는 제품들에 필수적으로 쓰인다. TSMC는 나노 단위 반도체 제조의 물리적 한계에 도달하거나 그 가까이 접근하며 지속적으로 혁신할 수 있는 능력을 보였고, TSMC의 이러한 능력은 회사 자체의 지정학적 중요성뿐 아니라 대만 지배계급의 지정학적 중요성까지 높여 준다. 대만 지배계급은 TSMC의 파운드리 공장을 대만 자체를 방어하는 일종의 ‘실리콘 방패’로 세심하게 위치시켜 왔다. 28 이는 2nm 반도체를 최초로 대량 생산할 TSMC의 새로운 파운드리 공장(2025년 말 가동 예정)을 대만의 신주와 가오슝에 위치시키기로 한 것에서도 드러난다. 29 물론 2020년대 말에는 미국 애리조나에 있는 신규 TSMC 공장에서도 2nm와 1.6nm 공정 반도체의 대량 생산이 뒤따를 예정이다. 이를 위해 미국 정부는 “반도체 및 과학법”에 따라 66억 달러의 보조금을 지원해 이 공장의 건설 자금 일부를 댔다. 30 최근 몇 년 동안 미국은 수출 통제 등 다양한 조치를 통해 중국이 최첨단 반도체를 손에 넣지 못하도록 공세적인 정책을 추진해왔다. “반도체 및 과학법” 자체도 미국으로의 반도체 제조업 “리쇼어링”을 장려하기 위한 법이다.
당연하게도, 이처럼 물리학의 한계를 밀어붙이는 작업에는 막대한 자원과 에너지가 쓰인다. 반도체 제조 공정은 앞서 언급한 데이터 센터와 비슷한 규모로 전력과 물을 소모한다. 2023년 그린피스 아시아는 2030년쯤에는 삼성의 반도체 제조 과정에서 발생하는 연간 이산화탄소 배출량이 3,200만 톤을 넘어설 것으로 전망했는데, 이는 2021년 덴마크의 전체 배출량보다 많은 것이다. TSMC의 에너지 사용량은 267퍼센트 급증할 것으로 전망됐는데, 이는 580만 명의 사용량에 육박하는 것이고, 이 중 대부분은 화석 연료로 생산될 것이었다. 31 물 소비, 그중에서도 반도체 제조 과정에 필요한 초순수의 소비량이 기계학습 작업에 최적화된 첨단 반도체 생산이 확대됨에 따라 같이 급증했다. 32
이 산업 전반에서 자본의 집적과 집중이 지속적으로 나타나며, 핵심 생산 공정에서는 극비사항인 기술적 노하우를 기반으로 한 독점 또는 준독점 구조가 자주 형성된다. 반도체 제조에서 핵심적인 두 가지 사례로는 최첨단 반도체 설계 산업과 노광 장비 제조가 있다. 미국에 본사를 둔 빅테크 기업 엔비디아는 TSMC 파운드리에서 위탁 생산되는 반도체를 설계하고 이를 판매하면서 전 세계 기계학습 반도체 시장에서 지배적인 영향력을 행사하고 있다. 엔비디아의 시장 점유율은 90퍼센트로 추정되며, 엔비디아는 미국 다음으로 큰 시장인 중국에 대한 수출 규제 방침을 철회하도록 트럼프 정부에 로비하는 데 성공했다. 33 극자외선EUV 노광장비는 반도체 생산의 핵심 공정 중 하나에 쓰인다. EUV 노광장비의 유일한 제조업체는 네덜란드 기업 ASML이고, 일본 기업 캐논이 기존 방식과 다른 나노프린트 노광장비를 개발해 저비용 대체 기술을 선보이기도 했다. ASML의 노광장비의 가격은 약 3억 7,000만 달러에 달하며, 캐논의 노광장비는 이에 비해 약 10분 1 수준이다. 34
미국 비영리 연구기관 에포크AI의 분석가들은 최근 발표한 논문에서 오픈AI의 GPT 시리즈, 메타의 라마, 구글의 제미나이 2.0과 같은 현재의 LLM들을 만들어내는 데 거대한 슈퍼컴퓨터 클러스터들이 핵심적인 역할을 했다고 주장한다. LLM 개발 기간 동안 이러한 슈퍼컴퓨터들의 규모와 자원 소비량은 기하급수적으로 증가했다. 슈퍼컴퓨터 콜로서스는 AI 연산에 최적화된 첨단 반도체 칩 20만 개로 구동된다. 2019년만 해도 1만 개 이상의 칩을 탑재한 슈퍼컴퓨터는 드문 편이었다. 에포크AI가 추적 조사한 슈퍼컴퓨터들의 하드웨어와 전력 소비량은 1년마다 두 배로 증가했지만, 계산 성능은 9개월마다 두 배로 증가했다. 이는 주로 더 우수한 반도체를 더 많이 확보한 데 기인한 것이다. 35
훈련 데이터와 인간 착취
기계학습 모델 생산의 규모 확대와 산업화라는 이중의 변화로 영향을 받은 또 다른 부문은 모델 생산에 필요한 훈련 데이터 확보다. 1세대 LLM은 흔히 온라인에서 수집한 텍스트를 출처 표기나 동의 없이 사용했다. 오픈AI가 GPT 시리즈 초기 버전을 훈련시키는 데 처음 사용한 텍스트 뭉치인 웹텍스트WebText는 2017년 인터넷에서 긁어온 텍스트를 기반으로 구성됐으며, [미국의 온라인 커뮤니티] 레딧Reddit 사용자들이 제공한 평가를 기준으로 편집됐다. 여러 주요 LLM의 제작에 사용된 방대한 훈련 데이터셋인 ‘C4’Cleaned Common Crawl Corpus의 구성을 분석한 2021년 연구에 따르면, 가장 흔한 출처는 구글이 운영하는 특허 웹사이트였으며, 그 다음은 위키피디아, 뉴욕타임스, LA타임스, 가디언 순이었다. 36 이처럼 비교적 주류에 속하는, 선별·편집된 자료들뿐 아니라 팬픽션(그중에는 웹사이트 ‘아카이브 오브 아워 온’Archive of Our Own에서 무단 도용한 3,200만 단어 분량도 포함된다), 소셜미디어 플랫폼의 이용자 댓글도 다수 섞여 있으며, 여기에는 극우적·여성혐오적·인종차별적 내용도 많이 포함됐다. 37
훈련용 이미지들의 모음으로는 2000년대 후반에 이미지 분류 모델 개발의 기반이 됐던 이미지넷ImageNet부터 50억 개 이미지로 이뤄진 데이터셋인 LAION까지 다양하다. LAION은 2023년 공개된 이미지 생성 도구 스테이블디퓨전StableDiffusion을 훈련하는 데 사용됐다. 이 데이터들 역시 흔히 개방형 인터넷에서 크롤링해[자동화된 프로그램(크롤러)을 이용해 인터넷을 자동으로 돌아다니며 데이터를 수집하는 것 ― 역주] 확보됐으며, 그 결과 훈련 데이터에는 디지털화된 미술관 및 문화유산 자료부터 여행 사진, 예술 작품 그리고 포르노까지 매우 다양한 이미지가 포함돼 있다.
이러한 이미지와 텍스트를 기계학습 공정에 투입하려면 표준화된 데이터로 변환하는 과정이 필요하고, 여기에는 데이터 라벨링을 일관되게 수행하는 작업이 포함된다. 데이터 라벨링 체계는 국제적으로 인정된 “벤치마킹” 시스템을 흔히 기준으로 삼는데, 이 벤치마킹 시스템은 주로 이미지를 표준화하고 또 “공공장소에 부적절한NSFW” 것으로 간주되는 콘텐츠를 제거하는 구실을 한다. 38 오늘날 데이터 라벨링 작업은 흔히 남반구에서, 안전하지 않고 공장과 같은 작업 환경에서 저임금만 받는 인간 노동으로 수행된다. 페이스북과 같은 소셜미디어 플랫폼에서는 콘텐츠 조정[유해·불법 콘텐츠를 선별하는 것 ― 역주] 모델을 훈련시키기 위해 자신의 플랫폼에 올라온 콘텐츠를 훈련 데이터로 이용한다. 이를 위해 노동자들은 극도의 트라우마를 유발할 수 있는 온갖 종류의 콘텐츠를 상상하기 어려울 정도로 빠르게 확인하고 라벨링해야 한다. 2025년 2월 페이스북 콘텐츠 조정자 소니아 크고모는 이렇게 증언했다.
2년 동안 나는 매일 최대 10시간씩 아동 학대, 신체 훼손, 인종차별적 공격과 같은 인터넷의 가장 어두분 부분을 바라봐야 했다. 여러분이 그런 것들을 보지 않을 수 있도록 말이다. … 트라우마를 유발하는 장면을 봤어도 멈출 수 없었다. 정신 건강을 위해 멈출 수도 없었고, 화장실을 가기 위해 멈출 수도 없었다. 어떤 경우에도 멈출 수 없었다. 우리는 고객, 즉 페이스북이 계속 일할 것을 요구한다고 들었다. 39
이러한 인간 노동은 기계 시스템과 합을 맞춰 수행된다. 데이터를 기계학습에 투입하기 위한 전처리 과정의 핵심 요소들이 자동화되면서, 생산되는 훈련 데이터의 규모가 크게 증가했고 훈련 데이터 생산이 하나의 독립된 산업으로 발전할 수 있었다.
지난 25년 동안 훈련 데이터 생산 방식이 어떻게 변해 왔는지 살펴보면, 이 점을 명확하게 이해할 수 있다. 과거에는 고도로 숙련된 연구자들이 장인처럼 하나하나 직접 데이터 라벨링을 해서 이미지 데이터 모음을 만들었다. 1998년 마이클 라이온스와 동료들은 일본인 얼굴 겨우 213장으로 구성된 데이터셋인 JAFFE를 만들었으며, 이후 60명의 주석자들이 각각의 얼굴 표정을 라벨링했다. JAFFE는 표정 인식을 자동화한다는 컴퓨터 비전 모델 개발에서 핵심적인 역할을 했으며, 이후 이미지·문서 군집화clustering와 관련 알고리즘 평가 등에서 다양하게 활용됐다. 40 라이온스와 동료들은 이처럼 고도로 전문화된 연구 도구를 만드는 전 과정을 직접 감독했고 여기에는 얼굴 모델이 될 자원봉사자들을 모집하고 대면 소통하는 것도 포함됐다. 41
몇 년도 채 지나지 않아, 연구자들은 이렇게 공들이는 방식을 포기하고, 2004년 설립된 사진 공유 플랫폼 플리커Flickr를 비롯한 온라인 출처에서 긁어온 대규모 이미지 모음을 선호하게 됐다. 기계학습 모델 생산을 위해 사용된 최초의 대규모 이미지 모음인 이미지넷은 플리커 설립 몇 년 후 페이페이 리가 이끄는 연구팀에 의해 만들어졌다. 이미지넷은 방대한 양의 플리커 사용자 사진을 수집하기 위해 [오픈소스 라이선스의 하나인] 크리에이티브커먼즈 라이선스 시스템을 이용했다. 크리에이티브커먼스 라이선스는 ‘비영리’ 목적의 재사용을 허용하는데 학술 연구도 여기에 포함된다. 이미지넷은 최초로 임금 노동자들을 대규모로 이용한 이미지 모음이었는데, 연구팀은 디지털 도급 플랫폼인 아마존 메카니컬 터크MTurk를 통해 상품화된 노동력을 확보했다. 42 이처럼 한편으로는 학술 연구자들의 “준-장인적인” 숙련 노동(계약 시간 외 ‘자발적’ 노동을 많이 해야 했음이 분명한)을, 다른 한편으로는 메카니컬 터크로 익명의 재택 작업자들을 선대제 수공업 방식으로 동원하는 것은 이미지넷만의 특징이 아니었다. 그것은 당시의 기계학습 생산 발전 단계에서 일반적으로 나타난 특징이었다.
일부 데이터 라벨링 작업은 ‘자원봉사자’의 노동에 의존하거나, 대형 디지털 플랫폼들이 자신의 콘텐츠와 서비스를 이용하려는 사용자들에게 CAPTCHA 테스트[‘다음 중 횡단보도가 들어간 이미지 타일을 고르시오’ 같은 테스트 ― 역자]를 거치도록 만드는 방식으로 이뤄지기도 했다. 그러나 일반적인 추세는 착취에 기반한 전통적인 방식에 기대는 것이었다. 그렇게 된 이유 중 하나는 훈련 데이터셋을 생산하는 자본가들 역시 공업용 화학약품이나 목화 가공품 생산업자들 못지 않게 품질 관리가 중요했기 때문이다. 예를 들어, 메카니컬 터크로 일감을 얻은 작업자들이 지루한 작업을 빨리 처리하기 위해 LLM을 사용하다 들킨 경우도 있었다. 43
이 문제에 대한 명백한 해결책은 클릭당 보상 방식이 아니라 노동자를 직접 고용해 훈련시키고 정기적인 임금을 지급하는 것이다. 부분적으로는 이 때문에 미국 기업에 데이터 라벨링 서비스를 제공하던 기업들이 미국에서 인도, 케냐, 우간다처럼 관련 노동력이 더 저렴한 국가들로 이동하게 됐다. 다른 요인은 요구되는 데이터 라벨링 작업의 규모와 속도가 커졌기 때문이다. 알렉산더 왕이 세운 데이터 라벨링 기업 스케일AI는 사실상 사내 버전의 메카니컬 터크라 할 수 있는 리모테스크스RemoTasks라는 클릭 일감 플랫폼을 구축해, 전 세계에서 노동력을 조달하고 있다. 리모테스크스에서는 정규직으로 이뤄진 엔지니어링 및 제품개발팀이 플랫폼을 감독하고, 훈련 데이터셋이 ISO 인증 요구사항 같은 다양한 품질 보증 기준을 충족하도록 관리하는 일도 수행한다. 44 스케일AI의 비즈니스 모델은 지금까지 눈부신 성공을 거두었고, 스케일AI는 미군의 많은 부문을 포함해 다양한 고객사를 보유하고 있다. 그러나 다른 모든 산업 생산 과정과 마찬가지로, 스케일AI 역시 다른 기업들과의 숙련 노동력 확보 경쟁, 지정학적 변수, 그리고 금융시장의 요동에 취약하다. 이러한 사례들은 오늘날 사회가 디지털로 연결되고 네트워크화됐기 때문에 모든 사람들이 거대한 하나의 사회적 공장에 속한 노동자가 됐다는 각종 이론이 왜 잘못됐는지 보여 준다. 훈련 데이터 산업의 역사는 인간의 창의적 노력을 체계적으로 약탈해 온 역사인 것은 분명하지만, 기계학습 모델을 상품으로 대량 생산하는 산업은 직접적인 착취 형태를 취하지 않고서는 등장할 수 없었다. 그리고 이러한 착취에는 노동자들의 저항 또한 뒤따르기 마련이고 이는 데이터 라벨링 노동자들이나 다른 기술 부문의 노동자들이 벌인 집단행동과 조직화로 나타났다. 45
훈련 데이터는 기계학습 모델 생산 과정에 투입되는 다른 요소들과 마찬가지로 점점 더 기업들뿐만 아니라 국가들까지 치열하게 경쟁을 벌이는 대상이 되고 있다. 2024년 7월 발표된 한 연구가 강조한 바에 따르면, AI 기업들이 훈련 데이터 수집을 위해 공개된 웹의 일부를 크롤링하는 것을 제한하는 조치가 증가하고 있다. 46 자신의 작품이 훈련 데이터로 수집·전용되는 것에 반대하는 예술가, 작가, 배우들의 항의 행동과 저작권 침해를 둘러싼 법적 대응이 이런 제한 조치가 도입되는 배경으로 보인다. 47 주요 AI 기업인 구글과 오픈AI는 훈련 데이터에 대한 규제를 완화시키기 위해 로비로 대응해 왔다. 영국의 노동당 정부는 이 기업들의 비위를 맞추려 애쓰며, 권리자가 명시적으로 거부하지 않는 한 AI 기업들이 온라인상의 모든 것을 가져다 쓸 수 있도록 허용하겠다고 약속했다. 48 노동당 정부는 또한 영국의 고품질 공공 데이터셋을 AI 기업들에 개방하는 데 적극적이다. 예컨대, 미국 군수 기업 팔란티어는 수백만 파운드 규모의 계약을 통해 영국 국립보건서비스NHS의 방대한 데이터에 접근할 권한을 이제 갖게 됐다. 팔란티어는 노동당 장관들과 밀착 관계를 구축해 왔으며, [노동당 총리] 키어 스타머는 최근 미국을 방문하면서 이 회사의 사무실을 직접 둘러보기도 했다. 49
모델 구조 변화가 낳은 혼란
2025년 1월 중국 기업 딥시크는 여러 서방 대기업들의 LLM보다 성능이 더 낫다고 주장하며 자신의 LLM을 공개했다. 이것이 낳은 시장의 패닉을 보면, 기계학습 모델 생산에서 연구·개발이 핵심적이라는 것과, 이를 둘러싼 국가-자본 클러스터 간 경쟁이 얼마나 치열한지 알 수 있다. 딥시크는 경쟁사들보다 훨씬 작은 규모의 GPU 클러스터, 그리고 훨씬 적은 수의 고성능 AI 반도체를 사용해 뛰어난 LLM을 훈련시킬 수 있었다고 밝혔고, 이 발표로 미국 반도체 설계 기업 엔비디아의 시가총액 중 5,930억 달러가 증발했다. 50
2025년 1월 딥시크 연구자들은 자신들이 사용한 방법의 얼개를 공개했다. 이들은 중국 알리바바가 개발한 오픈소스 LLM인 Qwen과 메타가 개발한 LLM인 라마를 기반으로 하면서 연쇄적 사고 추론이라 알려진 기법을 적용해 모델을 설계했다. 51 이 분야의 연구 문헌이 흔히 그러듯, 딥시크의 논문도 모델의 “지능”과 “추론 능력”을 인간의 것과 다르지 않은 양 묘사하는 언어와 무비판적인 가정들로 가득 차 있지만, 핵심 내용 자체는 비교적 단순하다. 연쇄적 사고 기법에 따른 모델은 LLM이 어떤 출력값(예를 들어 주어진 질문의 답)을 만들어 내기까지의 중간 과정을 단계별로 드러내도록 하고, 출력값이 설계자들이 생각하는 정답에 가까울수록 더 많이 보상하는 강화학습Reinforcement Learning이라는 흔한 기법을 사용했다. 다른 기계학습 연구자들이 개발한 일련의 성능 평가에서 딥시크의 R1 모델은 훨씬 낮은 비용으로 생산됐음에도 오픈AI의 LLM 중 하나와 동일하거나 더 높은 점수를 기록했다.
이처럼 효율성 향상을 이룰 수 있는 정도와 그것이 기계학습 모델의 생산 방식을 재편할 수 있는 잠재력은 결코 과소평가돼서는 안 된다. 2017년 구글 연구팀이 개발한 트랜스포머 모델은 많은 현 세대 대형 기계학습 모델의 기초를 마련했고, 그 결과 훈련 데이터 크기가 대폭 커졌고 텍스트 처리 작업 성능이 비약적으로 향상될 수 있었다. 52 [이전 모델들이 데이터를 순차적으로 처리했던 것과 달리 ― 역자] 트랜스포머 모델은 훨씬 많은 훈련 과정을 병렬적으로 수행할 수 있게 했다. 이로 인해 이전보다 훨씬 더 큰 훈련 데이터셋을 활용한 모델을 만드는 것이 가능해졌다. 이처럼 모델 구조의 변화는 현실 세계에 극적인 영향을 미쳤다. 점점 더 거대한 LLM을 구축하려는 경쟁이 가속화되고, 그에 따라 앞에서 설명한 슈퍼컴퓨팅 확장이 촉진됐다.
국가로의 회귀
2025년 1월 22일 딥시크가 R1 모델과 소스 코드를 공개하고 이틀 후, 스케일AI의 CEO 알렉산더 왕은 트럼프에게 보내는 공개 서한을 발표했는데, 다소 겁에 질린 듯한 어조의 그 글에서 왕은 미국 정부가 “AI 전쟁에서 승리”할 수 있는 방안을 제시하려 했다. 53 왕은 미국 행정부가 중국과 극명하게 대조적으로 AI 생산의 세 축(연산 능력, 훈련 데이터, 모델 알고리듬) 중 연산 능력 부문이 아니라 알고리즘 부문에 투자를 집중해 자원을 잘못 할당하고 있다고 질책했다.
우리 정부는 지출 자체도 더 적을 뿐 아니라, 올바른 곳에 투자하지도 못하고 있다. 승리하려면 정부가 AI 산업의 현실을 더 잘 반영하도록 투자 전략을 조정해야 한다. 그리고 중국의 공세적인 AI 투자(AI 솔루션의 현업 배치와 구현에 집중돼 있다) 수준을 따라잡는 것을 넘어 더 많이 투자해야 한다. 54
미국 국가가 더 적극적으로 개입해 달라는 왕의 요구는 AI 기업들, 그중에서도 특히 군수 산업 관련자들이 투자 규모 확대 이상의 것을 국가에 바라고 있음을 보여 준다. 사실, 투자만 놓고 보자면, 아마존웹서비스AWS와 구글처럼 네트워크 인프라를 제공하는 많은 빅테크 기업들이 이미 수십억 달러 규모의 자본 지출을 약속한 상태다.
2025년 2월 아마존은 당해 약 1,000억 달러를 지출할 계획이라고 발표했는데, 이는 2008년 이후 전체 유형자산PPE 투자액의 5분의 1에 달할 것이라고 추정된다. 55 지난 15년 동안 관련 유형자산 지출이 이미 가파르게 증가해 왔음을 감안하면, AI 산업 확장에 따른 인프라 수요 증가가 얼마나 큰 것인지 알 수 있다. 이러한 지출 추세는 중국의 빅테크 기업들에서도 그대로 나타난다. 알리바바는 2025년 지출을 520억 달러로 예상했고, 바이트댄스는 200억 달러 규모의 지출 계획을 발표했으며, 텐센트는 100~150억 달러 투자를 예고했다. 56
왕이 편지에서 말하고 있듯, 중국 기업들이 공개적으로 발표하는 투자 금액만 봐서는 중국 국가가 AI 개발에 쏟아붓는 총 투자 규모를 온전히 포착하기 어렵다. 미국 AI 기업과 정부 관계자들은 딥시크의 기술적 도약에 겁을 먹고 있는데, 그 이유 중 하나는 미국이 중국 AI 연구를 약화시키기 위해 여러 핵심 기술에 접근하지 못하도록 수출 통제를 가했는데도 딥시크가 상당한 효율성 향상을 달성했기 때문이다. 사실, 중국의 첨단 반도체 확보를 미국이 막으려 한 것은 중국 AI 산업에서 연구와 혁신을 억누르기보다는 오히려 자극했을 가능성이 충분히 있다. 미국 역사에서도 지정학적 위기로 상대적으로 폐쇄적인 “온실” 환경이 조성돼 그 안에서 혁신적인 기술 발전이 이뤄진 사례가 매우 많다. 좋은 예로, 제2차세계대전 발발로 미국이 천연고무에 접근할 수 없게 되자 합성 고무 생산에 성공한 것을 들 수 있다. 당시 미국 정부가 석유화학 산업과 협력하며 대대적으로 개입하자 고무 대체재 개발에 속도가 붙었고, 이렇게 개발된 합성 고무는 종전 후 미국 자본주의가 석유에 힘입어 확장할 때 핵심 요소가 됐다. 57
신성 군산복합체에 맞서기
알렉산더 왕이나 팔란티어의 알렉스 카프와 샴 산카르와 같은 신종 국방 기술 AI 자본가들은 1940~1950년대의 바로 이런 사례들을 염두에 두고 있다. 그들은 미국이 제조업, 기술 연구, 군사 산업주의를 선도하던 시절에 대한 향수, 애국심에 대한 호소, 그리고 “서방”을 방어해야 한다는 주장을 뒤섞어 자극적인 혼합물을 만들어냈다. 58 이러한 관점을 강력히 지지하는 자들은 트럼프 행정부 내에도 있으며, 부통령 JD 밴스도 그중 하나다. 2025년 3월 열린 “역동적인 미국” 투자 정상회의에서 밴스는 AI를 “미국 산업 르네상스”의 중심에 두겠다는 비전을 제시했다. 밴스에 따르면, 세계화가 실패한 이유는 일자리들을 인건비가 더 낮은 지역으로 옮기는 오프쇼어링 때문이고 경쟁 국가들이 미국을 추월할 길을 열어 줬다는 것이다. 그는 이어서 다음과 같이 말했다.
내 생각에 우리는 잘못 판단했다. 물건을 제조하는 지역들이 결국에는 물건 설계 능력도 잘 발전시킨다는 사실이 드러났다. 여러분 모두가 잘 알다시피, 네트워크 효과라는 것이 있다. 제품을 설계하는 기업은 제품을 만드는 기업과 함께 일한다. 그들은 지적 재산권을 공유한다. 그들은 최고의 노하우를 공유한다. 그들은 때때로 핵심 인력까지 공유한다. 우리는 다른 국가들이 가치사슬에서 항상 우리 뒤에 머물 것이라 가정했지만, 그들이 가치 사슬 하단에서 실력을 키우자 상단에서도 우리를 따라잡기 시작했다. 우리는 양쪽에서 압박을 받게 된 것이다. 59
밴스는 모인 청중에게 다음과 같은 대안을 제시했다. 제조 공정을 미국으로 되돌리고, AI를 활용해 조립라인의 생산성을 높이며, “아랍에미리트연합국UAE의 친구들” 덕분에 풍부한 화석 연료 에너지로 이 모든 것을 가동하고, 군사화한 국경 감시 체제를 강화해 이주 노동자를 차단한다(이는 팔란티어 등의 기업이 생산하는 AI의 또 다른 활용처다). 밴스가 연설을 마치며 한 말을 보면, 그는 산업적 우위를 차지하기 위한 이 치명적인 경쟁에서 전쟁도 일정한 구실을 한다는 것을 분명하게 인식하고 있다. 그는 이렇게 말했다. “미래의 전쟁이 됐든, 미래의 일자리가 됐든, 미래의 경제적 번영이 됐든, 우리는 그것을 바로 여기 미국에서 만들어야 한다고 믿는다.” 60
“역동적 미국” 회의 참석자들 중에는 비슷한 주장을 하는 사람들이 많았다. 패널로 참가한 한 드론 제조업체의 CEO인 아담 브라이는 밴스의 기조연설을 이어받으며 드론 대량 생산이 어떻게 국가의 제조업 부흥을 “눈에 띄게 진전”시킬 수 있는지에 대한 비전을 제시했다. 그는 우크라이나군이 전장에서 매년 100만 대의 드론을 소모하고 있다고 언급했다. 그는 이어서 이렇게 주장했다.
제조업 부흥의 핵심은 군대의 구매력으로 막대한 변화를 만들어야 한다는 것이다. 민간용 쿼드콥터 시장의 규모는 수십억 달러 정도로 추산된다. 나는 군이 이 분야에서 적어도 이 정도 수준으로는 지출해야 한다고 주장한다. 61
군사용 드론은 AI 연구의 군사적 응용을 놓고 열띤 논쟁이 벌어지는 분야 중 하나로, 특히 AI를 이용한 자율 드론과 군집 드론 개발에 관한 논의가 집중적으로 이뤄지고 있다. 20년 전만 해도, 미군은 매우 다양한 종류의 무기를 사용하는 적들에 맞서기 위한 제국주의적 공군력 기술 피라미드에서 드론은 최하단에 위치한다고 여겼다. 오늘날 드론은 구매 비용이 저렴하고, 제작도 비교적 간단하며, 전장에서 매우 다양한 역할을 수행한다. 62 상업용 드론은 GPS와 통신 링크에 의존하는데, 이는 전파 방해를 통해 쉽게 교란될 수 있다. 드론 제조업에서 혁신을 추구하는 최첨단 분야 중 하나는 방해 전파가 난무하는 상황에서도 드론이 기계학습 기반 컴퓨터 비전을 이용해 스스로 비행할 수 있도록 하는 기술이다. 군집 드론은 현재 AI의 군사적 연구가 활발한 또 다른 분야이다. 예컨대, 2022~2023년 이스라엘군은 MIT 연구자들에게 이 주제에 대한 연구를 의뢰했다. 63
가자지구에서 벌어지는 살육은 제2차세계대전 이후 좀처럼 볼 수 없었던 무차별적인 인명 살상을 정상적인 것으로 여겨지도록 만드는 데서 중요한 구실을 했고, AI 기술이 그 중심에 있다. 이스라엘의 대규모 감시 시스템부터 살생부를 작성하는 기계학습 모델, 난민 캠프에서 부상당한 아동들을 살해하는 드론에 이르기까지, AI는 현재 진행 중인 인종학살 과정 전반에 걸쳐 사용되고 있다. 64 이 새로운 기술적 군국주의 시대의 선지자들이 지속적으로 퍼트리는 거짓말 중 하나는 기술 덕분에 “정밀” 공격이 가능해진다는 것이다. AI를 통해 더 정밀한 공격을 할 수 있고 결과적으로 민간인 생명을 구한다는 것이 그들의 주장이다. 이번에도 역시, 이스라엘의 가자 폭격 중심지에 남겨진 음산한 폐허를 보면 그것이 사실이 아님을 알 수 있다. 그 모습은 아마도 1945년 8월 일본 히로시마 핵폭격 후의 초토화된 황무지나, 같은 해 2월 연합군의 독일 드레스덴 폭격 이후 볼 수 있었던 불타버린 잔해에 더 가까울 것이다.
새로운 AI 전쟁의 지배자가 되려는 사람들은 AI 군사기술을 과거 대량살상무기와의 비교한다는 점에서는 어느 정도 더 솔직하다고도 말할 수 있다. 아담 브라이는 이렇게 말했다. “개인적인 관점에서 핵무기 배치는 참담하고 끔찍한 일일 테지만, 당신과 적 모두 핵무기를 가진 세계보다 더 나쁜 세계는 오직 적만이 핵무기를 가진 세계다.” 65
물론 젊은 국방 기술 자본가들이나 밴스가 미국 자본가 계급 전체의 이익을 대변하는 것은 아니며, 심지어 미국 주요 기술 기업 전체 스펙트럼을 대변하지도 않는다. 트럼프의 관세 정책에 강력한 반대 압력을 가한 것에는 국제 채권 시장뿐 아니라 엔비디아, 아마존, 애플과 같은 주요 기술 기업을 포함한 광범위한 미국 자본가들의 로비도 있었다. 특히 엔비디아는 트럼프 정부로부터 ‘AI 확산 규제’에 대한 중대한 양보를 얻어낸 것으로 보인다. 2025년 5월 15일 발효될 예정이었던 이 규제에는 AI 반도체를 수출하려면 정부의 특별 승인을 받도록 해, 중국 등 해외 시장에서 엔비디아의 이윤에 타격을 줄 수 있었다. 66 이 양보가 트럼프와의 대립이 아니라 아첨을 통해 이뤄졌다는 사실은 중요하지 않다. 분명한 것은, 이 중요한 분야에서조차 미국 국가는 [팔란티어의] 알렉스 카프의 환상처럼 전능한 존재가 아니며, 여전히 자국의 주요 자본가들과 협상해야 한다는 사실이다.
AI 기술 채택 경쟁에는 훨씬 더 근본적인 문제들이 깔려 있는데, 같은 문제를 마르크스가 대규모 기계 도입을 분석하며 지적한 바 있다. 어느 생산 과정에서든 기계화가 도입될 때 해당 기술을 먼저 도입한 자본가들은 노동자들에게서 쥐어짜낸 잉여가치의 더 큰 몫과 이익을 차지할 기회를 갖게 된다. 마르크스는 이것이 노동 강도 증가, 노동 시간 증가, 노동계급 내 새로운 층을 노동시장으로 빨아들이는 것 등 다양한 방식으로 일어날 수 있다고 지적했다. 그러나 시스템 전체로 보면 기계화의 결과는 재앙적인데, 노동자들이 마치 기계 사이에 포위된 듯 일하는 가운데 ‘죽은 노동’(과거 노동자들의 결과물) 대비 ‘산 노동’(모든 가치의 원천)의 비율이 줄어들기 때문이다. 이처럼 시간이 지남에 따라 자본의 유기적 구성이 증가하는 것이 이윤율의 장기적 하락 경향의 제1 요인이다. 67 직설적으로 말해, 로봇이 아무리 많아도 자본주의의 장기적 위기를 해결할 수 없다. 오히려, 로봇 생산은 시스템 전반의 쇠퇴 경향을 더욱 가속화할 뿐이다. 그렇다고 일시적으로 이윤율을 회복할 방법이 전혀 없다는 의미는 아니다. 경제 위기 시기에 일어나는 생산의 주기적 침체는 자본을 파괴해 시스템 전반에서 죽은 노동과 산 노동의 균형을 회복시킬 수 있다.
전쟁은, 시스템의 작동을 옥죄는 자본을 정리하고 초기화할 수 있는 또 다른 메커니즘이다. 현 시기의 위험 중 하나는 미국과 중국 각각의 지배계급이 (그리고 그들의 동맹국 대다수와 강대국 경쟁자들이) “미래의 전쟁” 준비와 직접적으로 연계된 국가 간 산업 경쟁이라는 위험천만한 메커니즘을 가속화하고 있다는 점이다. 과거의 사례를 통해 알 수 있듯, 파괴수단을 만들기 위해 생산수단을 집중하면, 에너지 네트워크 구축, 광물과 수자원 확보, 제조업 생산 능력 확대, 군대와도 같은 대규모 노동력 동원 등에서 경쟁이 격렬해진다. 결국 따지고 보면, AI를 인간 노동의 산물로서 명확히 분석하는 것이 필수적인 이유가 바로 이것이다. 오늘날 세계가 전쟁으로 치닫는 것을 막는 것이 불가능하다는 그릇된 믿음보다 더 위험한 것은 없다. 저항은 언제나 싹을 틔우고, AI를 움직이는 것이 숨겨진 인간 노동임을 밝히면 우리는 진짜 적들에 맞서 더 효과적으로 조직할 수 있는 새로운 투쟁의 지형을 발견할 수 있다.
주
-
출처: Anne Alexander, “The AI arms race”, International Socialism 187(Summer 2025).
↩
- Marx, 2024, p351. ↩
- 기계학습 모델에 쓰이는 통계량과 수학적 함수들을 통칭 AI라고 부르는 데는 여러 이유가 있지만, 중요한 이유 하나는 투자자들이 이것을 진짜 로봇 두뇌라고 믿도록 만들면, 그들을 더 쉽게 흥분시킬 수 있다는 것이다. 마테오 파스퀴넬리의 AI 사회사 연구는 이러한 문제의식에 따른 비판을 제공하며, 이 분야에서 마르크스주의 이론을 갈고 닦는 데에서 중요한 기여를 하고 있다. 그러나 파스퀴넬리의 접근법에는 몇 가지 한계도 있다. 특히 다수 지배자들 간의 경쟁이 자본 축적의 근본적 요소라는 문제를 충분히 다루지 못한다는 점, 그리고 자본 축적 과정에서 국가가 하는 구실에 주목하지 않는다는 점이 그렇다. Pasquinelli, 2023. ↩
- 만약 내가 입력한 훈련 데이터가 아동문학 작가 닥터 수스의 작품들로 구성돼 있다면, “the cat…”이라는 문구는 “in the hat”이라는 단어들로 이어질 가능성이 높다. [The cat in the hat은 닥터 수스의 대표작이다. ― 역자] 그러나 만약 셰익스피어의 작품을 훈련 데이터로 썼다면, “the cat…”은 “hat”과는 관련성이 떨어지고 대신 “dog”나 “mouse” 등 다른 단어들과 더 가깝게 연관될 것이다. 각각의 경우에서 cat, hat, dog, mouse 사이의 ‘거리’를 계산하고 통계량으로 표현할 수 있으며, 이처럼 글을 일종의 데이터셋으로 간주하고 그 내부 구조를 기술한 통계량은, 서로 다른 두 글을 구별하는 문제에서 각 저자의 이름을 확인하는 것 못지 않게 유용할 수 있다는 것이 검증됐다. 이렇게 각 글의 고유한 특징을 발견하기 위해서는 글을 총체적으로 살펴보는 것이 매우 중요한데, 그래야만 글들의 공통점과 차이점을 모두 파악할 수 있기 때문이다. 또한 텍스트를 단어보다 작은 단위로 분해하는 “토큰화” 과정을 통해서, 완전히 새로운 신조어를 생성하는 것도 가능해진다. ↩
- 언어 모델이 내놓는 결과물은 이처럼 단순히 통계적 과정을 통해 생성된 텍스트일 뿐이지만, 챗봇이라는 외양은 마치 다른 존재와 대화하고 있다는 인상을 줘 기계가 언어를 실제로 사용하고 있다는 강력한 환상을 만들어낸다. ↩
- 항상 그런 것은 아니지만, 이미지 분류 모델은 때때로 인간의 눈에는 보이지 않는 방식으로 실패하기도 한다. (참고: Karpathy, 2015.) ↩
- Turing, 1950. ↩
- Narayanswamy and others, 2024. ↩
- BytePlus Editorial Team, 2025. ↩
- Lee, 2024. 이 특정 출처는 엔비디아 마케팅 부서가 만든 선전용 글이지만, ‘국가적’ 특성을 지는 기초 모델을 만들기 위한 경쟁이 실제로 벌어지고 있다는 점에는 의심의 여지가 없다. 소버린 AI를 향한 질주는, 각종 단체들이 오픈AI 같은 기업에게서 자신들의 내부 규범과 규칙에 맞게 최적화된 모델을 구매하는 행위가 국가적 차원에서 벌어지는 것이라고 할 수 있다. ↩
- Vaswani and others, 2017. ↩
- Shehabi and others, 2024; Spencer and Singh, 2025. ↩
- Spencer and Singh, 2025. ↩
- Shehabi and others, 2024, p6. ↩
- Ye, 2025. ↩
- Goldman Sachs, 2025. ↩
- Shehabi and others, 2024. ↩
- Spencer and Singh, 2025. ↩
- Ambrose, 2024. ↩
- Beyond Fossil Fuels, 2025. ↩
- Pilz, 2025. ↩
- Sebastian, 2024. ↩
- Robbinson, 2024; Kimball, 2025. ↩
- Barratt and others, 2025. ↩
- Digital Realty, no date. ↩
- McKenzie, 2023. ↩
- Shilov, 2025. 이 공정을 2nm라고 부르는 것은 어떤 실질적인 의미보다는 사실상 마케팅 용어가 돼 버린 듯하다. 그럼에도 불구하고, TMSC가 반도체의 핵심적인 메모리 회로인 SRAM을 지속적으로 개선해왔다는 주장이 실제로 입증된다면, 이는 중대한 사건이 될 것이다. ↩
- Bowman, 2024, p1. ↩
- Miller, 2023. ↩
- Clarke, 2025. ↩
- Shilov, 2024. ↩
- Greenpeace, 2025. ↩
- Wang and others, 2023. ↩
- Weatherbed, 2025. ↩
- Trueman, 2024. ↩
- Pilz, 2025. ↩
- Dodge and others, 2021. ↩
- Codega, 2023. ↩
- 이런 여과 작업은 일관되게 이뤄지지 않거나 아예 수행되지 않은 경우도 많아서, 연구자들은 학습용 이미지 데이터셋에서 아동 성학대 이미지 등 인종차별적·성차별적·가학적 이미지를 발견하는 일이 흔하다. ↩
- Kgomo, 2025. ↩
- Lyons, no date. ↩
- Lyons, 2021. ↩
- Deng and others, 2009. ↩
- Veselovsky and others, 2023. ↩
- 생산 과정의 견고함이나 윤리성에 대한 스케일AI의 주장을 그대로 믿을 필요는 없다. 다만 이 방식이 20년 전 MTurk가 운영되던 방식과는 근본적으로 다르다는 점만 짚어두면 된다. ↩
- Kgomo, 2025; Anwar, 2025. ↩
- Longpre and others, 2024. ↩
- Creamer, 2025. ↩
- Wiggers, 2025; Maher, 2025. ↩
- Quinn 2024; Amin and Geoghegan 2025. ↩
- Carew and others, 2025. ↩
- DeepSeek-AI and others, 2025. ↩
- Vaswani and others, 2017. ↩
- Wang, 2025. ↩
- Wang, 2025. ↩
- Morgan, 2025. ↩
- Reuters, 2025a; South China Morning Post 2025; Reuters 2025b. ↩
- Hanieh, 2024. ↩
- Karp and Zamiska, 2025. ↩
- Vance, 2025. ↩
- Vance, 2025. ↩
- A16Z, no date. ↩
- 2024년 12월 다마스커스를 함락시킬 때 HTS의 드론 활용예 참고 (Alexander, 2025). ↩
- MIT Coalition for Palestine 2024, 38–9. ↩
- Amnesty International, 2023; Iraqi, 2024; Al Jazeera, 2025. ↩
- A16Z, no date. ↩
- Weatherbed, 2025. ↩
- Roberts, 2022. ↩
참고 문헌
Al Jazeera staff, 2025, “Israel Retrofitting DJI Commercial Drones to Bomb and Surveil Gaza”, Al Jazeera (8 May).
Turing, Alan, 1950, “Computing Machinery and Intelligence”, Mind 59 (October).
Ambrose, Jilian, 2024, “Ireland’s Datacentres Overtake Electricity Use of All Urban Homes Combined”, Guardian (23 July).
Amin, Lucas, and Peter Geoghegan, 2025, “Palantir’s NHS Data Platform Rejected by Most Hospitals”, Democracy for Sale, democracyforsale.substack.com/p/palantirs-nhs-data-platform-rejected-hospitals.
Amnesty International, 2023, “Israel and Occupied Palestinian Territories: Automated Apartheid: How Facial Recognition Fragments, Segregates and Controls Palestinians in the OPT”.
Anwar, Mohammed Amir, 2025, “Africa’s Data Workers Are Being Exploited by Foreign Tech Firms 4 Ways to Protect Them”, Conversation.
Barratt, Luke, Andrew Witherspoon, Aliya Uteuova, Costanza Gambarini, and Andrew Witherspoon, 2025, “Revealed: Big Tech’s New Datacentres Will Take Water from the World’s Driest Areas”, Guardian, (9 April).
Beyond Fossil Fuels, 2025, “New Data Centres Could Undermine Europe’s Energy Transition, Eating into Its Emissions Cuts, Study Finds”.
Bowman, Jeffrey 2024. “This 1 Number May Ensure TSMC’s Market Dominance”, The Motley Fool (17 August).
BytePlus Editorial Team, 2025, “Understanding GPU Hours: A Comprehensive Guide”.
Carew, Sinéad, Amanda Cooper, and Ankur Banerjee, 2025, “DeepSeek Sparks AI Stock Selloff; Nvidia Posts Record Market-Cap Loss”, Reuters (28 January).
Clarke, Peter, 2025. “TSMC Opens up 2nm Wafer Fab, Races to Mass Production”, eeNews Europe.
Codega, Linda, 2023, “Chatbots Have Stolen Fanfiction From a Gift Culture” Gizmodo.
Creamer, Ella, 2025. “‘Meta Has Stolen Books’: Authors to Protest in London against AI Trained Using ‘Shadow Library’” Guardian (3 April).
DeepSeek-AI, Daya Guo, Dejian Yang, Haowei Zhang, Junxiao Song, Ruoyu Zhang, Runxin Xu, and others, 2025, “DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning”, Deepseek.
Deng, Jia, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei, 2009, “ImageNet: A Large-Scale Hierarchical Image Database”, 2009 IEEE Conference on Computer Vision and Pattern Recognition.
Digital Realty, no date, “Direct Liquid Cooling in Data Centres”, Digital Realty, www.www.digitalrealty.co.uk/resources/articles/direct-liquid-cooling-in-data-centres?t=1747515225477?latest
Dodge, Jesse, Maarten Sap, Ana Marasović, William Agnew, Gabriel Ilharco, Dirk Groeneveld, Margaret Mitchell, and Matt Gardner, 2021, “Documenting Large Webtext Corpora: A Case Study on the Colossal Clean Crawled Corpus”.
Goldman Sachs, 2025, “Data Centers Could Boost European Power Demand by 30%”, (7 February).
Greenpeace, 2025, Semiconductor Industry Electricity Consumption to More than Double by 2030: Study.
Hanieh, Adam, 2024. Crude Capitalism (Verso).
Iraqi, Amajd, 2024, “‘Lavender’: The AI Machine Directing Israel’s Bombing Spree in Gaza”, +972 Magazine.
Karp, Alexander C, and Nicholas W Zamiska, 2025, The Technological Republic: Hard Power, Soft Belief, and the Future of the West (Penguin Books).
Karpathy, Andrej, 2015, “Breaking Linear Classifiers on ImageNet,” Andrej Karpathy Blog.
Kgomo, Sonia, 2025, “I Was a Content Moderator for Facebook. I Saw the Real Cost of Outsourcing Digital Labour”, Guardian (12 February).
Kimball, Spencer, 2025. “Trump Wants Coal to Power AI Data Centers. The Tech Industry May Need to Make Peace with That for Now”, CNBC.
Lee, Angie, 2024. “What Is Sovereign AI?” NVIDIA Blog.
Longpre, Shayne, Robert Mahari, Ariel Lee, Campbell Lund, Hamidah Oderinwale, William Brannon, Nayan Saxena, and others, 2024, “Consent in Crisis: The Rapid Decline of the AI Data Commons”.
Lyons, Michael J, 2021, “‘Excavating AI’ Re-Excavated: Debunking a Fallacious Account of the JAFFE Dataset”.
Lyons, Michael J, no date, “Papers with Code—JAFFE Dataset,” Papers with Code.
Maher, Bron, 2025. “‘Unsustainable Status Quo’: AI Companies and Publishers Respond to Govt Copyright Consultation”, Press Gazette.
Marx, Karl, 2024 [1867], Capital, Volume 1 (Princeton University Press). [국역: 《자본론 Ⅰ》(상, 하), 비봉출판사, 2015]
McKenzie, James, 2023. “Moore’s Law: Further Progress Will Push Hard on the Boundaries of Physics and Economics”, Physics World.
Miller, Chris, 2023. Chip War: The Fight for the World’s Most Critical Technology (Simon & Schuster UK Ltd).
MIT Coalition for Palestine, 2024, “MIT Science For Genocide”.
Morgan, Timothy Pricket, 2025, “Amazon Will Spend Nearly A Year Of AWS Revenue On AI Investments”, The Next Platform.
Narayanswamy, Girish, Xin Liu, Kumar Ayush, Yuzhe Yang, Xuhai Xu, Shun Liao, Jake Garrison, and others, 2024, “Scaling Wearable Foundation Models”.
Pasquinelli, Matteo, 2023, The Eye of the Master (Verso).
Pilz, Konstantin F, 2025, “Trends in AI Supercomputers”, Epoch AI.
Quinn, Ben, 2024. “Tech Firm Palantir Spoke with MoJ about Calculating Prisoners’ ‘Reoffending Risks’”, Guardian (16 November).
Reuters, 2025a, “Exclusive: ByteDance Plans $20 Billion Capex in 2025, Mostly on AI, Sources Say” (23 January).
Reuters, 2025b, “Tencent Joins China’s AI Spending Race with 2025 Capex Boost”, Reuters (19 March).
Robbinson, Dan, 2024, “AI Datacenters Are Keeping Coal-Fired Power Stations Busy”, Register (14 October).
Roberts, Michael, 2022, “A World Rate of Profit: Important New Evidence”, The Next Recession.
Sebastian, Moss, 2024, “Three Mile Island Nuclear Power Plant to Return as Microsoft Signs 20-Year, 835MW AI Data Center PPA”, Data Center Dynamics (20 September).
Shehabi, Arman, Sarah Smith, Dale Sartor, Jonathan Koomey, Eric Masanet, Billie Holecek, Md Abu Bakar Siddik, Nuoa Lei, and Alex Newkirk, 2024, United States Data Center Energy Usage Report (Lawrence Berkely National Laboratory).
Shilov, Anton, 2024, “US Department of Commerce Finalizes $6.6 Billion CHIPS Act Funding for TSMC Fab 21 Arizona Site”, Tom’s Hardware (15 Novembe3).
Shilov, Anton, 2025. “TSMC’s 2nm N2 Process Node Enters Production This Year, A16 and N2P Arriving next Year.” Tom’s Hardware (24 April).
South China Morning Post, 2025, “Alibaba’s US$52 Billion Capex Seen as Catalyst for China’s Big Tech in AI Race” Yahoo Finance (26 February).
Spencer, Thomas, and Siddharth Singh, 2025, “Energy and AI”, International Energy Agency.
Trueman, Charlotte, 2024, “Canon Ships Its First Nanoprint Lithography Machine, Rivals ASML”, Data Center Dynamics (1 October).
Vance, JD, 2025. “Remarks by the Vice President at the American Dynamism Summit”, The American Presidency Project.
Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin, 2017, “Attention Is All You Need” (5 December).
Veselovsky, Veniamin, Manoel Horta Ribeiro, and Robert West, 2023, “ Artificial Artificial Artificial Intelligence: Crowd Workers Widely Use Large Language Models for Text Production Tasks”.
Wang, A. 2025. “America Must Win the AI War.” Scale AI Website.
Wang, Qi, Nan Huang, Zhuo Chen, Xiaowen Chen, Hanying Cai, and Yunpeng Wu, 2023, “Environmental Data and Facts in the Semiconductor Manufacturing Industry: An Unexpected High Water and Energy Consumption Situation”, Water Cycle, Volume 4
Weatherbed, Jess, 2025. “Nvidia’s Flattery of Trump Wins Reversal of AI Chip Limits and a Huawei Clampdown”, The Verge.
Wiggers, Kyle, 2025, “Google Calls for Weakened Copyright and Export Rules in AI Policy Proposal”, TechCrunch.
xAI, no date, “Colossus | xAI”.
Ye, Yuan, 2025. “Explainer: How China Is Managing the Rising Energy Demand from Data Centres”, Carbon Brief.