딥시크의 파도에 휩쓸려가는 중
오리진 "새해에는 보여줄게 완전히 달라진 나"
|
|
|
안녕하세요, 에디터 오리진입니다.
먼저, 설 이후 첫 레터네요. 설은 잘 보내셨나요? 이번 설, 저는 개인적으로 27일에서 28일로 넘어가는 날 밤이 기억에 남습니다. 보유하고 있는 미국 주식 가격이 크게 하락했기 때문입니다. 😇 뉴욕 증시에서 나스닥 지수는 3% 하락하였고, AI 붐을 주도하고 있는 엔비디아는 16.88% 급락하며 시총 863조 원이 증발했어요. 반도체와 기술주는 물론, 전력 주식까지, AI 관련 수혜주로 불리던 주식들은 사이좋게 내리막길을 걸었죠. 중국의 AI 스타트업이 출시한 AI 모델 '딥시크 R1(DeepSeek R1)' 때문인데요.
2000년대 초 닷컴 버블 붕괴와 같이 AI 거품이 꺼지기 시작한 것 아니냐는 우려와 딥시크의 혁신으로 앞으로 본격적인 AI 대중화 시대가 열린다는 의견이 부딪치는 가운데, 이 새로운 모델의 무엇이 이러한 충격을 던졌나 짚어보고자 합니다.
※ 시장이 너무나 급변하고 있는 만큼 이 뉴스레터가 나갈 즈음 다르게 밝혀지거나, 새로이 알려진 정보가 반영이 안 되어 있을 수 있습니다.
|
|
|
요즘 AI 모델 너무 많이 나와서 이런 느낌입니다. 그만 밀려오라.... © 센과 치히로
|
|
|
1. DeepSeek, 왜 화제인가 ️🔥 2. 이 승리를 누구의 승리로 볼 것인가 3. 의심의 눈초리, 그럼에도
|
|
|
오픈 AI의 ChatGPT로 생성형 AI 붐이 불고, AI가 인터넷 발명 이후 가장 큰 변화를 일으킬 'The Next Big Thing'이라고 불리지만, 이러한 열풍이 거품인지 아닌지 항상 촉을 곤두세우고 있는 사람들이 있는 이유는 AI가 너무나도 비싸기 때문입니다. 대형언어모델을 개발하는 데에 필요한 기술력 개발, 인재, 학습용 데이터셋 구축, 운영 비용이 천문학적인 수준입니다. 엔비디아의 H100 칩은 한 개 가격이 3만 달러 수준인데, 대형 언어모델 구동을 위해서는 이런 칩이 수십만 개가 필요하니, 사실 돈이 줄줄 새는 사업인 것이죠.
사업모델이나 사용처가 확실치 않아도 거대한 자본을 투자할 수 있어야만 뛰어들 수 있는 경쟁입니다. 당연히 천문학적인 돈을 들일 수 있는 미국의 빅테크가 주도할 수밖에 없는 싸움인 만큼, 유럽이나 우리나라와 같은 곳은 AI 경쟁에서 영원히 뒤처지지 않기 위해 국가 주도의 전략적 움직임이 필요하다고 하기도 하고요. |
|
|
전쟁에 돈을 들이는 것과 동일한 느낌이랄까요? © 아이언맨 밈 |
|
|
바로 이것이 지금까지 사람들의 생각이었고, 그렇기 때문에 미국의 관련 기업은 현재, 그리고 미래에도 AI를 주도해 나갈 기업으로서 매일 주식 최고가를 갱신하고 있었습니다. DeepSeek(이하 딥시크라 통칭)이 이토록 화제인 것은 이러한 생각을 깨부쉈기 때문입니다. "고가 반도체, 고비용이 아니더라도, 우수한 성능을 내는 AI를 만들 수 있다"라는 것입니다.
중국 AI 랩 딥시크는 올해 1월 20일 자체 개발한 추론 특화모델 '딥시크(R1/R1 zero)'에 대한 논문을 공개했는데요. 최신 모델을 개발하는 데에 든 비용이 약 560만 달러(약 73억 원 수준)라고 밝혔습니다. 개발 과정에서 엔비디아 H100보다 뒤처진 버전인 H800 칩*을 사용했다고 하며, 이러한 비용은 기존 메타나 오픈AI의 모델 개발 비용에 비해 10분의 1, 많게는 100분의 1 수준으로 감소한 비용이라고 해요. 그런데도, 딥시크의 주장에 따르면 여러 평가 기준에 따라 테스트하였을 때 오픈 AI의 추론 모델 o1과 유사한 성능을 보인다고 합니다. 6개의 벤치마크 중 3개에서 o1을 넘어 1위를 차지했다고 하죠. (o1 모델이 나머지 3개 벤치마크에서 1위를 차지한 만큼 둘이 비등비등하다고 보면 되겠습니다.)
*미국은 AI 경쟁에서 주도권을 잃지 않기 위해 중국에 반도체 칩 수출 통제를 하고 있습니다. 해당 규제를 최근 더 많은 나라로 확대할 것으로 발표한 바 있고요. 첨단 H100 칩에 대해서 수출 통제가 되었고, 그에 따라 엔비디아가 성능을 대폭 줄여 중국에 수출할 수 있는 수준으로 낸 것이 H800 칩입니다. 메모리 대역폭이 절반 수준이라고 해요. |
|
|
저도 딥시크 R1을 사용해 봤는데요. 논리적 추론 테스트 사이트에서 가져온 질문을 오픈 AI의 o1 모델과 딥시크에 동일하게 줘 보았습니다. 아래는 제가 물어봤던 질문과 그에 대한 답변입니다. 오픈 AI의 o1 모델이 좀 더 길고 자세하게 정보를 주고 있지만, 답을 향해 가는 과정과 결론의 퀄리티는 유사하다고 느꼈습니다. 좀 더 복잡한 연산/추론 문제로 보면 확실히 비교가 가능하겠지만, 일반 사용자로서는 개발 비용에서 차이가 난다는 것 치고는 큰 차이를 체감하지 못했습니다. |
|
|
(질문) 주어진 문장을 바탕으로, 추론된 문장은 참인지, 거짓인지, 또는 추론할 수 없는지 판단하세요.
- 주어진 문장: 영국 정부가 발표한 데이터에 따르면, 30세 미만 인구의 82%가 주택을 소유하지 않고 있습니다. 노숙인을 돕는 한 자선단체가 발표한 데이터에 따르면, 노숙인으로 간주되는 사람들의 48%가 30세 미만입니다.
- 추론된 문장: 주택 매매 시장에서 저렴한 주택이 부족한 것이 이렇게 많은 30세 미만 인구가 노숙 상태에 있는 이유입니다.
- 선택지:
- 확실히 사실이다
- 아마도 사실이다
- 추론할 수 없다
- 아마도 거짓이다
- 확실히 거짓이다
|
|
|
이런 딥시크, 어떻게 만들어진 것일까요? 답은 강화학습 (Reinforcement Learning)에서 찾아볼 수 있습니다. 먼저 설명 드리자면, 기계의 학습에는 지도학습, 비지도 학습, 그리고 강화학습이 있습니다. 지도학습이란 말 그대로 사람이 데이터를 적절하게 분류하여 컴퓨터에 학습시키고, 학습된 분류법에 따라 새로운 데이터에 대해서도 적절한 결과를 내놓도록 지도하는 방식입니다. 훈련 데이터와 정답을 주고서 학습을 시킵니다. 비지도 학습은 정답이 없는 데이터를 컴퓨터에 주고 분석시켜 데이터 안의 동일한 패턴을 찾고 그룹화하여 규칙을 만들어내게 하는 방식입니다.
반면 강화학습은 컴퓨터에 특정 환경을 제공하고, 알고리즘이 스스로 시행착오를 통해 배우도록 합니다. 보통 자전거 타기에 비유하곤 하는데, 자전거 타는 법을 배울 때 '각도는 얼마, 페달 밟기는 어느 세기로 한다'와 같은 식으로 배워서 하지 않고 일단 해보는 것처럼 강화학습도 마찬가지입니다. 주어진 환경에서 행동하고, 행동의 결과에 따라 보상을 받고, 더 큰 보상을 받기 위해 행동을 교정해 나가며 최적의 결과를 내게 되죠. |
|
|
혼자 자전거를 타는 법을 배워가는 것과 같습니다 © Unsplash |
|
|
최근 AI의 세계에서는 이러한 강화학습을 기반으로 한 '추론하는 능력을 갖춘 AI'가 떠오르고 있었습니다. 데이터의 양에는 한계가 있고 대량의 데이터를 학습시켜 성능을 끌어올리는 데에 한계가 있는 만큼, 추론하는 시간을 늘려 AI 모델의 성능을 개선하겠다는 것입니다. 24년 9월 오픈 AI가 'o1' 모델을 출시하면서 대두되었는데, 학습 데이터를 기반으로 대답을 내놓는 것에서 더 나아가 문제를 해결하기 전 인간의 인지과정과 유사한 추론 과정 '사고 사슬(Chain of Thought)'을 거치게 하는 것이 주목할 만한 부분이었습니다. 복잡한 문제를 아주 작게 나누어 각각에 대한 시행착오를 통해 최적의 사고 경로를 단계적으로 도출하고 그에 따라 답을 내놓게 되죠. |
|
|
우측을 보면 추론 과정을 설명해주고 있습니다 © Google Research |
|
|
앞서 제가 써본 'o1', 그리고 '딥시크 R1'의 대답과 아래 퍼플렉시티 AI의 대답을 비교해 보면 차이가 드러납니다. 두 모델에게 냈던 질문과 동일한 질문을 퍼플렉시티 AI에 물어봤을 때 받은 답변입니다. 결국 '추론할 수 없다'라는 최종값은 같긴 하지만, 앞서 두 추론모델이 어떻게 답을 냈는지 단계적으로 볼 수 있었던 데에 비해 확연히 다르지 않나요? |
|
|
그래서 o1도 추론 모델, 딥시크 R1도 추론 모델인데 무엇이 다른 걸까요? o1 등 기존 강화학습을 통한 추론 모델은 기존 LLM과 동일하게 대량의 라벨링 된 데이터를 활용하여 사전 훈련과 사후 훈련을 거치고 추론의 단계에서 추론에 긴 시간을 할애하는 방식이었습니다. |
|
|
o1 추론 모델(코드명 '딸기')는 추론에 긴 시간을 할애 © DrJimFan |
|
|
반면 딥시크 R1 모델은 라벨링 된 데이터 없이 "순수한" 강화학습으로 훈련을 거쳤다는 것이 주목할 만한 점입니다. 기존 발표되었던 딥시크 V3 모델 (GPT-4와 비슷한 모델이라고 보면 됩니다)을 기반으로 강화학습을 통해 딥시크 R1 Zero를 먼저 만들었죠. 기존의 LLM을 위한 강화학습에는 라벨링 된 데이터와 알고리즘의 시행착오를 '감독'하고 '평가'해 줄 평가 모델이 있지만, 딥시크는 GRPO(Group Relative Policy Optimization, 그룹 상대 정책 최적화) 방식을 통해 평가 모델 없이 알고리즘이 자체적으로 학습하고 수정해 나가도록 했다고 합니다. 저는 이 부분에서 '설계된 평가 모델 없이 어떻게 답변이 적합한지 아닌지를 알지?'라는 의문이 있었는데, 답변을 비교하여 일관성, 완결성, 수학적/논리적 법칙에 맞는지를 충족하는지에 따라 보상을 부여하는 방식이라고 합니다.
이렇게 만들어진 딥시크 R1 Zero는 라벨링 된 데이터가 없었기 때문에 가독성이 떨어진다든지, 혼잡한 단어를 사용한다든지의 문제가 있어, 좀 더 다른 방식의 강화학습을 통해 완성도를 높였으며 그게 바로 딥시크 R1 모델입니다. 소량의, 양질의 정제된 데이터(기존 LLM 훈련에 들어가는 양에 비하면 아주 작은 수준)를 학습시키고, 강화학습으로 훈련한 후, 강화학습을 통해 얻은 최고의 결괏값을 포함하여 다시 훈련하는 방식입니다. 해당 방식을 계속해서 반복하게 되면 좋은 결과 기반의 더 좋은 결과, 즉 좋은 결과 → 더 좋은 결과 → 최고의 결과와 같은 식으로 결과물의 질이 올라가게 되는 방식인 듯합니다.
결과적으로, 접근하는 방식의 변화를 통해 '고수준의 AI 모델을 만들기 위해 꼭 천문학적인 비용이 필요한 것은 아니다'라는 효율화를 이뤄냈다는 것이 고무적인 부분으로 평가받고 있습니다. 이러한 부분 때문에 고가의 칩 가격으로 호실적을 기록하던 엔비디아에 회의적인 시선이 생기며 주가가 하락한 것이겠죠. 반면 이러한 변화가 꼭 '고가의 칩 필요 없다!'라는 결론으로 이어지는 것은 아닐 수 있습니다. 지금과 비슷한 수준의 성능을 내는 AI 모델을 만드는 데에 비용 효율화가 되었다는 이야기이지, 최고의 AI 모델을 만들었다는 것은 아니니까요. |
|
|
딥시크가 화제가 되는 또 다른 이유는 딥시크가 '개방되어 있다'라는 것입니다. 세계 최대 AI 개발 커뮤니티 Hugging Face에 업로드 되어있으며, MIT 라이선스를 채택하여 제한 없이 상업적/학술적으로 사용할 수 있도록 개방되어 있습니다. 누구나 원하는 대로 사용하고, 검사할 수 있고, 수정할 수 있도록 하였다는 것입니다. Hugging Face의 CEO에 따르면, 공개된 이후 며칠 만에 500개의 파생 모델이 생겨났으며, 통합 250만 다운로드가 이뤄졌다고 해요. 세계를 놀랄만한 모델을 만들어놓고 풀어버리다니? 라고 생각하실 수도 있겠습니다. 그렇지만 그렇기 때문에 더 많은 사람들이 알게 되고, 뜯어보고, 화제가 된 것이기도 합니다.
정말 많은 사람들이 뜯어보는 중이라고 확신합니다. Hugging Face는 '오픈-R1'이라는 프로젝트를 시작하기도 했어요. R1 모델이 적은 비용으로 어떻게 높은 성능을 내는지 역설계(Reverse Engineering, 장치 또는 시스템의 기술적인 원리를 구조 분석을 통해 발견하여 재설계하는 것)하여, 딥시크가 제공하지 않은 부분을 포함하여 완전 오픈 소스로 공개할 계획이라고 하죠. 그렇게 되면 더 많은 사람들이 딥시크와 같이 저비용으로 고수준의 AI 모델을 만들 수 있게 되며 다양한 모델이 나오게 될 수 있습니다. AI 생태계가 미국, 빅테크 중심에서 더욱 다양하게 확장되는 것을 기대해 볼 수 있는 것이죠.
그간 AI의 세계에서는 개방형 vs 폐쇄형의 구도가 있어왔습니다. 개방형 AI 진영에서는 오픈 소스로 공개함으로써 AI라는 가장 중요한 혁신 기술을 특정 기업만의 전유물로 남기는 것이 아니라 많은 사람들이 연구하고 혜택을 받을 수 있는 기술로 해야 한다고 주장하죠. 개방되어 있는 만큼 투명하고, 특정 기업의 니즈와 상관없이 AI의 위험성에 대해서 다각도로 뜯어볼 수도 있습니다. 개발자들이 자유롭게 토론하고 협업할 수 있기 때문에 기술의 발전을 촉진하죠. 빅테크라고 해서 모두 폐쇄형을 주장한 것은 아니고, 메타의 경우 AI 생태계를 활성화하기 위해 Llama-3와 같은 AI 모델을 오픈소스로 개방한 바 있습니다. 메타의 CEO, 마크 주커버그는 꽤 강한 표현을 사용하여 폐쇄형 AI 기업들을 비판하기도 했어요. "마치 자기네들이 신을 창조하는 것처럼 생각하는 것 같다"라고 말이죠. 물론, 이러한 대기업의 개방형 모델 활용 배경에는 주권을 가진 오픈 AI에 맞서 무료 모델을 통해 사용자를 빠르게 늘려 자신의 생태계를 넓히려는 계산도 있습니다.
반면 폐쇄형 AI는 공개되어 있지 않으며, 자유롭게 변형할 수 없고 유료로 사용하여야 하죠. 우리가 잘 알고 있는 오픈 AI가 폐쇄형 AI의 예시입니다. (이름값을 하지 못하고 있죠) 오픈AI를 공동 설립했던 일론 머스크가 '인류의 이익'을 위해 비영리 연구소를 만들기로 했는데 폐쇄형 소스로 이익을 창출하는 데에 집중한다며 오픈 AI에 소송을 제기했던 바 있기도 합니다. (회사 이름을 클로즈Closed AI로 바꾸면 소송을 취하하겠다고 비꼬았던 게 기억에 남네요....😂) 폐쇄형 AI 진영에는 두 가지 축이 있습니다. 이미 패권을 잡은 축(오픈 AI)과, AI 기술을 국가 안보로 보는 축입니다. 후자는 AI 기술은 국가의 경쟁력이며 적대국들이 활용할 수 있기에 개방해서는 안 된다는 시각입니다. 이런 시각으로 인해 미국 정부가 AI 개발에 활용되는 반도체 수출 제한, 반도체 기술 협력 제한을 시행하는 것이기도 합니다.
이러한 가운데 딥시크 출시와 그로 인한 충격은 복합적인 의미를 가집니다. 한편으로는 기존 폐쇄형 모델의 방향만이 정답은 아니며, 개방을 통해 더 나은, 효율적이고 창의적인 방향으로 AI가 나아가는 것이 앞으로의 방향성처럼 느껴지기도 합니다. 오픈 AI의 CEO 샘 올트먼은 1월 31일 "우리가 역사의 잘못된 편(on the wrong side of history)에 있다고 생각한다" 라며 오픈 소스 전략을 검토하고 있음을 밝히기도 했습니다. "중국의 승리가 아니라, 개방형 오픈 소스 모델의 승리다." 메타의 수석 AI 과학자가 한 말입니다.
반면 생각하게 되는 것은 과연 모두 그렇게 생각할까? 라는 점입니다. 이번 딥시크 출시는 오픈 소스 진영의 승리임과 동시에 폐쇄형 AI 진영의 기존 생각을 강화하는 계기가 되기도 합니다. AI 기술은 국가 경쟁력이며 패권 경쟁의 일부라는 관점 말이죠. '오픈 소스 경쟁에서 미국 모델이 승리하기를 모두가 바랄 것'이라고 밝힌 마크 주커버그의 말처럼요. 누가 업계 표준을 차지하게 될 것인가에 대한 국가적 경쟁이 심화될 것으로 예상됩니다. 개방과 공유, 집단지성을 통한 창의성의 발현과 공동체를 위한 혁신을 추구하는 오픈소스 정신과는 달라진 면이 있네요.
이로부터 촉발될 미래 경쟁의 끝에 승리자는 누구일까요? 개방형 진영일까요, 혹은 특정 국가일까요? 둘 다일 수 있겠지만 우리가 현재 이 '딥시크' 충격을 누구의 승리로 생각하는지에 따라 미래가 달라져 있을 듯합니다. |
|
|
이렇게 보고 있는 사람 많습니다 © 나는 자연인이다 캡쳐
|
|
|
이러한 딥시크, 다들 긍정적으로 보는 것은 아닙니다. 딥시크에 대한 의심과 불안은 앞서 말한 민족주의적 시각에서 기인합니다. 또한 딥시크를 개발한 중국의 독재국가라는 특성도 무시할 수 없죠. 가장 큰 논란은 아래 두 가지입니다.
1. '개인 정보 털린대' 👀
딥시크가 처음 나왔을 때, 그리고 지금 이 뉴스레터를 보고 계신 분들 중 써보고 싶으신 분이 있다면 가장 먼저 드는 걱정은 아마도 보안일 것입니다. 사실 저도 써본답시고 켜면서도 걱정이 되었거든요. 관련하여 네이버 클라우드 AI 센터장이 X에 딥시크가 '광범위한 범위의 정보를 수집하고, 해당 정보가 중국의 보안 서버에 저장된다'라고 게시글을 올리기도 했습니다. |
|
|
이에 대해 개인정보보호위원회는 딥시크의 개인정보 처리 방침에 대해 조사한다고 밝혔고, 우리나라뿐만 아니라 다른 나라들도 딥시크에 대한 규제를 하나둘 시작하고 있습니다. 이탈리아는 앱스토어에서 다운로드를 차단했고, 대만은 각 정부·부처에 딥시크 사용을 금지하였으며, 일본과 미국도 공무원의 사용을 금지하고자 하고 있습니다. 정보를 수집하여, 국가가 적대적으로 사용하는 것이 아니냐는 불안이죠. 딥시크가 답하는 내용에 중국 이데올로기가 짙게 묻어있다는 점은 이런 의심을 키우고 있어요. '천안문 사태에 대해 알려줘'와 같은 중국 정부에 민감한 질문을 던졌을 때 대답을 회피하고, 역사적 위인을 묻자 시진핑을 포함하여 대답한다든지 말이죠.
2. '딥시크의 혁신은 과장되었다' 😡
또 다른 의견은 딥시크의 혁신은 과장된 면이 있다는 것입니다. 개발 비용, 개발에 쓰인 칩, 그리고 개발 방식에 대한 의혹입니다. 개발 비용이 73억 원 수준이라고 밝혔지만 그게 사실이냐는 것이죠. 이전 연구, 실험에 대한 비용을 모두 제외하고 최종 훈련 비용만 계산한 것이 아니냐는 의견입니다. 그리고 H800만 사용하여 개발했다고 하지만, 사실은 미국 규제를 우회하여 H100 칩을 대량 구매하여 사용하였다는 의견도 있습니다. 딥시크의 모회사인 '하이플라이어(High flyer)'라는 헤지펀드가 수출 규제가 있기 전 21년부터 엔비디아 A100 칩을 10,000개 구매한 바 있음에 기반한 추측이죠. 이러한 부분은 제대로 검증되기 어려운 부분인 만큼 검증되기 전까지는 그저 '의혹'일 뿐이며, 사실 그 모든 것을 고려해도 기존 빅테크 개발 비용보다 확연히 적은 비용에 개발한 것은 달라지지 않는다는 의견도 있습니다.
반면 개발 방식에 대해서는 조사가 진행 중입니다. 오픈 AI는 1월 29일, 딥시크가 ChatGPT에서 대량의 데이터를 추출, 무단 도용하여 모델을 개발했다는 의혹을 제기하며 조사에 착수했어요. 이 조사 결과는 지켜봐야겠습니다. |
|
|
다만, 그 모든 의혹에도 불구하고 이번 딥시크 열풍은 확실한 터닝포인트라고 생각됩니다.
첫 번째 이유는 '가능성'을 제시했기 때문입니다. AI 씬이 더 이상 승자독식이 아닐 수 있다는 관점으로 인해 각국에서의 전략적 투자 확대가 예상되고, 개방된 모델을 기반으로 다양한 시도와 실험이 진행될 것으로 기대됩니다. 일반 기업이 더 저렴한 비용으로 AI를 도입·활용할 수 있게 되면서 다양한 AI 사용 시나리오가 발굴되는, 대중화가 가속화되는 계기로 작동할 수도 있습니다.
미국은 이미 트럼프 정권 취임 시작부터 AI 주도권을 잡기 위해 최대 5천억 달러를 투자하는 '스타게이트' 프로젝트를 발표한 바 있고, MS·메타 등이 600~800억을 AI에 투자할 것을 발표하기도 하는 등 막대한 자본을 기반으로 달려 나가고 있습니다. 그런 만큼 더 치열해지는 경쟁에서 승기를 잡기 위해 AI가 나아갈 수 있는 수준 자체를 빠르게 높여나갈 것으로 예상됩니다. 전체적으로 보면 AI 시장 전반의 활성화가 일어날 수 있는 계기로 작동할 수 있죠. AI의 '스푸트니크 모멘트*'라고 칭하기도 합니다.
* 스푸트니크 모멘트 : 구소련이 1957년 최초의 위성을 쏘아 올렸을 때 미국이 충격을 받았던 것에서 파생된 말. 우위에 있다고 생각한 국가가 후발 주자의 기술에 충격을 받는 상황
두 번째 이유는, AI 경쟁에 본격적으로 '국가'가 가시화된 것으로 보이기 때문입니다. 앞서 언급했던 스푸트니크 모멘트, 미국-소련 간 냉전 시대의 말이죠. 지금 우리는 미-중 기술 냉전 시대에 살고 있다고도 하는 만큼 딥시크를 AI의 '스푸트니크 모멘트'라고 칭하는 것은 꽤 묘한 기분을 줍니다. 기술은 중립적인 존재이지만 이러한 시대에서 중립적으로 사용되지 않는 만큼, 앞으로 우리는 AI를 통해 어떤 의미와 가치를 만들어 낼 수 있는지에 대해서도 치열하게 고민해야 할 것으로 보입니다.
'박민희의 차이나 퍼즐' 사설에서 인상 깊게 읽은 말을 공유하며 마무리합니다. "강대국과 거대 기술기업들이 경제, 군사 주도권을 놓치지 않기 위해 인공지능과 무한 경쟁을 벌이는 시대에 인간은 무엇으로 남게 될까....인공지능이 일자리의 대부분을 대체하고 ‘쉬운 전쟁’의 도구가 된다면 어떤 사회가 오게 될까. 첨단기술 경쟁에서 이런 질문도, 평범한 개인들의 발언권도 낄 자리가 없다." |
|
|
에디터 <오리진>의 코멘트
노래 좋은 것 같아서 추천합니다. 사실 가사를 보면 비판적인 내용인 것 같긴 한데, 생각없이 듣다보면 특정 가사에 꽂혀서 좀 기분 좋아져요. The best you can is good enough~♬ 최선을 다했다면 그걸로 충분합니다. 👍
|
|
|
💌 협업문의 augustletter08@gmail.com
|
|
|
Written by Zoe • 구현모 • 찬비 • 나나 • 오리진 • 하은
|
|
|
Copyright © AUGUST All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지.
|
|
|
|
|