설날 연휴를 맞아 대한민국이 한숨 돌리고 있는 사이 전 세계는 시끌벅적했습니다. 중국 인공지능(AI) 스타트업 기업인 '딥시크'가 생성형 AI 'Deep Seek R-1'(이하 딥시크)을 발표하면서죠.
딥시크는 업계에 '충격'으로 다가왔습니다. 그간 생성형 AI와 같은 AI 서비스의 기술력을 끌어올리기 위해서는 천문학적인 비용과 최첨단 하드웨어가 필요하다는 게 정설이었는데요, 이를 뒤집으면서도 기존의 생성형 AI에 결코 뒤지지 않는 성능을 보여줬기 때문입니다.
관련 산업에 반드시 필요한 반도체가 최대 수출 품목인 만큼 한국도 이번 충격에서 자유로울 수 없습니다. 현재 상황을 예의주시 해야 하는 이유죠.
AI와 반도체의 상관관계
지난 2023년 오픈AI가 CHAT GPT라는 생성형 AI를 시장에 선보이자 전 세계는 '진정한 AI의 시대가 도래했다'라고 입을 모았죠. 챗GPT의 등장은 전 세계에 그만큼 '충격'으로 다가왔습니다.
챗GPT는 사용자가 질문을 하면 챗GPT가 스스로 대답을 내놓는 '대화형 인공지능' 입니다. 사실 이와 같은 대화형 인공지능이 생소하진 않았습니다. 이른바 '챗봇'으로 불리우던 채팅형 상담봇을 이미 많은 기업들이 상용화한 상황이었으니까요.
챗GPT가 세상을 놀라게 했던 건 '챗봇'이 한정된 분야에 그치지 않고 거의 모든 분야에서 대답을 내놓을 수 있었다는게 가장 큰 차이였습니다. 사용자의 궁금증을 전방위적으로 해결해 줄 수 있었다는 거죠.
100% 정확하지는 않았지만 스스로 질문을 이해하고 관련 대답을 내놓는 것 자체가 혁신적이었던 겁니다. '챗봇'과는 비교도 할 수 없는 인공지능이 등장한 겁니다.
AI업계 관계자는 "챗봇이 학습한 데이터는 챗봇이 활용되는 분야의 데이터를 한정적으로 수집하기 때문에 관련 분야 외에서는 답을 낼 수 없는 서비스"라며 "챗GPT와 같은 서비스는 방대한 데이터를 수집해 답을 낸다는 점이 가장 큰 차이점"이라고 설명합니다.
챗GPT는 어마어마한 분야에 대한 답을 내놓는다고 했죠. 다시 말해 엄청난 수의 데이터를 수집하고 분석하는 능력을 갖췄다는 의미입니다. 수천, 수만이 아닌 수백억, 수천억번 이상의 연산을 '초' 단위로 수행해야 하죠. 이를 위해 필요한 것은 고성능의 하드웨어(AI가속기)와 이를 운영할 수 있는 자본입니다.
여기에서 가장 중요한 것은 AI가속기인데요, 아무리 소프트웨어가 뛰어나도 하드웨어에서 이같은 연산을 하지 못한다면 생성형AI를 진보시키기 어려워서죠. 여기서 등장하는 게 바로 미국 실리콘밸리는 물론 전 세계에서 가장 주목받는 기업인 엔비디아입니다.
엔비디아는 그간 GPU(그래픽처리장치) 분야에서 두각을 나타내왔는데요, AI가속기에서도 가장 활용하기 적합한 하드웨어가 바로 이 GPU입니다. 엔비디아에서는 이같은 강점을 살려 AI가속기 분야에 힘을 실었고요. 현재는 시장 점유율 80% 이상을 차지하고 있습니다.
엔비디아를 필두로 AI가속기 개발 및 생산에 나서는 기업들은 기술력을 더욱 끌어올리기 위한 방법으로 대역폭이 더 넓은 칩들에 대한 메모리를 필요로 하기 시작합니다. 이에 그간 비용과 대중성의 문제로 일부만 사용하던 HBM(고대역폭메모리)이 주목받기 시작합니다.
HBM은 약 10년전인 2013년 SK하이닉스가 전 세계에서 최초로 시장에 내놓긴 했지만 관심도는 다소 떨어졌었는데요, 챗GPT의 등장으로 AI가속기의 성능 상향에 대한 니즈가 겹치면서 HBM이 다시 주목받기 시작한거죠. 반도체 업계에서 HBM의 이야기가 본격적으로 나온 시점이 AI가 본격적으로 각광받기 시작한 것과 시기가 겹치는 이유입니다.
딥시크 '판'을 바꾸다
챗GPT를 필두로 수많은 AI 서비스가 세상에 모습을 드러내기 시작했는데요, AI업계에서 가장 화두는 기업의 '자본력' 이었습니다. 개발에 필요한 AI가속기의 가격이 높은데다가 이를 수천대 가동하기 위한 데이터센터 등을 보유하고 있어야 하기 때문이죠. 이 때문에 관련 산업은 '빅테크' 등 덩치가 있는 곳이 우선적으로 치고나가는 상황이 연출될 수밖에 없었습니다. 일례로 엔비디아의 최고 성능 AI가속기 H100의 가격은 3만달러(약 4300만원)을 호가합니다.
게다가 AI 서비스는 이제 한 국가의 '전략적 자산'으로 자리잡았죠. 이에 중국과 패권을 두고 경쟁하고 있는 미국은 중국에 대한 엔비디아 H800 등 AI 반도체에 대한 수출 규제에 나서기도 했고요. 이에 시장에서는 자본력과 기술을 모두 갖춘 미국, 그리고 미국 기업들이 이 시장을 선도할 것으로 내다봤습니다.
그런데 딥시크는 이러한 '판'을 바꿨습니다. 더 저렴한 가격으로 챗GPT등 종전의 AI서비스와 비교해 뒤지지 않는 서비스를 내놓으면서죠. 딥시크는 관련 서비스 개발 비용으로 약 560만 달러 가량을 쓴 것으로 알려졌습니다. 챗GPT가 1억달러를 쓴 것과 비교하면 얼마나 저렴하게 개발에 성공했는지를 알 수 있죠.
딥시크가 이렇게 저렴한 비용으로 서비스를 내놓을 수 있었던 것은 여러가지 이유가 있었던 것으로 추정됩니다. 미국 실리콘밸리에 비해 상대적으로 저렴한 중국의 인건비, 챗GPT 등의 개발 소스 무단 활용 등이 꼽힙니다. 모두 '추정'의 영역이죠. 대신 주목받는 것은 딥시크가 사용한 AI가속기입니다. 딥시크는 엔비디아 H800의 저가형 버전인 H100을 바탕으로 개발됐다고 밝혔습니다. H100은 개당 약 1만4000~1만5000달러 수준의 가격이라고 합니다.
시장에서는 딥시크가 미국의 반도체 수출 규제를 피하기 위해 어쩔 수 없이 H800 대신 규제가 적용되지 않은 H100을 썼다고 보고 있지만, AI서비스 개발에 '초고성능'의 AI가속기가 굳이 필요하지 않다는 의미에 더 주목했습니다. 당장 딥시크가 R-1을 발표한 직후인 27일(현지시각) 엔비디아의 주가가 16.97% 빠지면서 시가총액 5890억달러(850조원)이 증발했죠.
반도체 업계, 그래도 '달려야 한다'
설날 연휴를 보낸 이후인 지난달 31일 SK하이닉스의 주가는 전 거래일 대비 9.86% 하락한 19만9200원에 마감했습니다. 딥시크가 고성능 AI가속기에 활용에 대한 의문을 던지면서 HBM을 시장을 주름잡고 있는 SK하이닉스의 주가도 동반하락했다는 분석이 지배적입니다.
다만 국내 반도체 업계에서는 딥시크의 충격파가 장기화하지는 않을 것이라고 보는 시각이 지배적입니다. 여전히 고대역폭 메모리에 대한 수요는 늘어날 가능성이 높다는 이유에서입니다. 딥시크의 등장과 별개로 전 세계적으로 AI관련 산업에 대한 투자는 늘어날 것인데다 이를 위해서는 HBM과 같은 메모리가 필수적이라는 이유에서죠. 당장 도널드 트럼프 미국 대통령이 최근 관련 산업에 한화로 700조원이 넘는 금액을 투자하겠다고 밝힌 게 대표적입니다.
AI업계 관계자는 "AI는 기본적으로 빠르게 많은 양의 데이터를 연산할 수 있는 것이 핵심인지라 시간이 지나면 지날수록 더 성능이 뛰어난 AI가속기를 필요로 할 수밖에 없다"라며 "국내 반도체 업계가 이미 HBM 시장에서 두각을 나타내고 있으니 이를 오히려 기회로 삼아도 될 것이라고 본다"고 말했습니다.
업계에서는 딥시크와 같은 충격은 이번이 마지막일리는 없다고 입을 모읍니다. 전 세계적으로 뛰어난 석학들이 달라붙고 있는 데다가 천문학적인 투자자금까지 들어오고 있으니 변화는 반드시 뒤따라 올 것이라는 이야기입니다. 앞으로 AI산업의 발전이 미치는 파장과, 이와 땔래야 땔 수 없는 국내 반도체 업계의 대응에 주목할 필요가 있어 보입니다.