안녕하세요! 오늘은 중국 DeepSeek가 2026년 4월 24일 발표한 DeepSeek V4 Preview에 대해 알아보겠습니다. DeepSeek V4는 1M 토큰 컨텍스트, 1.6T 파라미터 MoE 아키텍처, CSA+HCA 하이브리드 어텐션 등 세 가지 핵심 혁신을 통해 오픈소스 LLM의 새로운 이정표를 세웠습니다. 특히 V3.2 대비 1M 컨텍스트에서 FLOPs 27%, KV 캐시 10%만 사용하는 극적인 효율성 향상을 달성했습니다. 이 블로그에서는 DeepSeek V4의 핵심 아키텍처, 벤치마크 성능, API 가격, HuggingFace 다운로드 방법, 다른 모델과의 비교에 대해 상세히 설명하겠습니다. 어떻게 1M 토큰을 효율적으로 처리하는지, 지금부터 하나씩 파헤쳐보겠습니다.

"이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."
🚀 DeepSeek V4란 무엇인가?
DeepSeek V4는 중국 DeepSeek-AI가 2026년 4월 24일 발표한 Preview 버전의 Mixture-of-Experts (MoE) 언어 모델입니다. 두 가지 모델 변형이 제공됩니다:
| 모델 | 전체 파라미터 | 활성화 파라미터 | 컨텍스트 길이 | 정밀도 | 다운로드 |
|---|---|---|---|---|---|
DeepSeek-V4-Pro-Base |
1.6T | 49B | 1M 토큰 | FP8 Mixed | HuggingFace |
DeepSeek-V4-Pro |
1.6T | 49B | 1M 토큰 | FP4 + FP8 Mixed | HuggingFace |
DeepSeek-V4-Flash-Base |
284B | 13B | 1M 토큰 | FP8 Mixed | HuggingFace |
DeepSeek-V4-Flash |
284B | 13B | 1M 토큰 | FP4 + FP8 Mixed | HuggingFace |
💡 핵심 포인트: DeepSeek V4는 MoE (Mixture-of-Experts) 아키텍처를 사용하여 전체 파라미터는 크지만, 실제 추론 시 활성화되는 파라미터는 Pro 49B, Flash 13B로 효율적입니다. 이는 V3.2의 37B 활성화와 비슷한 수준으로, 큰 모델 크기에도 추론 비용을 관리 가능하게 유지합니다.
⚙️ 핵심 아키텍처: 3가지 혁신
DeepSeek V4는 V3 대비 세 가지 주요 아키텍처 혁신을 도입했습니다:
1. CSA + HCA 하이브리드 어텐션: "책 읽기의 비결"
DeepSeek V4가 1M 토큰(약 70만 단어, 책 10권 분량)을 처리할 수 있는 비결은 "똑똑하게 읽기" 전략에 있습니다. 기존 모델은 모든 단어를 동등하게 기억하려다 메모리가 터졌지만, V4는 사람처럼 중요한 부분은 자세히, 덜 중요한 부분은 요약해서 기억합니다.
📚 책 읽기 비유로 이해하기:
여러분이 도서관에서 책 10권을 읽어야 한다고 상상해보세요. 어떻게 읽나요?
- CSA (중요 문장 찾기): 책을 읽을 때 핵심 문장에 형광펜으로 표시하듯, 4개 문단을 1개 요약으로 압축하고, 그중 가장 중요한 1024개만 선택해 기억합니다. "이 부분이 중요해!"라고 판단하는 과정입니다.
- HCA (챕터 요약): 책 한 챕터(128문단)를 한 문장으로 요약하듯, 아주 강력하게 압축합니다. 세부 내용은 잃지만 전체 흐름은 파악합니다. "이 챕터는 주인공의 성장 이야기야" 정도로 기억합니다.
- Sliding Window (최근 내용): 지금 읽고 있는 페이지와 바로 앞 페이지는 꼼꼼하게 읽습니다. "방금 무슨 일이 일어났지?"를 놓치지 않기 위해서죠.
왜 이게 혁신인가요?
기존 모델은 1M 토큰을 처리하려면 모든 단어 간의 관계를 계산해야 했습니다. 이건 도서관 책 10권의 모든 단어를 서로 연결짓는 것과 같아요. 당연히 메모리가 터집니다. 하지만 V4는:
| 방식 | 기존 모델 | DeepSeek V4 |
|---|---|---|
| 책 읽기 | 모든 단어를 똑같이 기억 | 중요한 건 자세히, 덜 중요한 건 요약 |
| 메모리 사용 (1M 토큰) | 100% (메모리 폭발) | 10% (V4-Pro), 7% (V4-Flash) |
| 계산량 (1M 토큰) | 100% | 27% (V4-Pro), 10% (V4-Flash) |
결과적으로 V3.2 대비 메모리는 1/10, 계산량은 1/3.7로 줄어들어 1M 토큰 컨텍스트가 실용적으로 가능해졌습니다.
2. Manifold-Constrained Hyper-Connections (mHC): "정보 고속도로"
mHC는 모델 내부에서 정보가 흐르는 "연결 고리"를 개선한 기술입니다.
🛣️ 도로 비유로 이해하기:
기존 모델은 정보가 1차선 도로를 통해 흘러갑니다. 층이 깊어질수록 정보가 희석되거나 왜곡될 수 있죠. mHC는 이를 4차선 고속도로로 확장합니다:
- 4차선 확장: 정보가 흐르는 채널을 4배로 늘려 더 많은 정보를 안정적으로 전달합니다. 마치 1차선 도로를 4차선 고속도로로 확장하는 것과 같습니다.
- 교통 흐름 제어: 각 차선에서 정보가 "균형 있게" 흐르도록 제어합니다. 한 차선에만 몰리지 않도록 doubly stochastic matrix라는 수학적 규칙을 적용합니다.
- 속도 제한 준수: 정보가 너무 빨리 흐르거나 폭주하지 않도록 spectral norm ≤ 1 제약을 둡니다. 이는 도로의 속도 제한과 같아서 수치적 안정성을 보장합니다.
- 상황별 차선 변경: 입력에 따라 어떤 차선을 사용할지 동적으로 결정합니다. 중요한 정보는 빠른 차선으로, 덜 중요한 정보는 느린 차선으로 보내는 것과 같습니다.
결과: 1.6T 파라미터라는 거대 모델에서도 학습이 안정적으로 진행되고, 깊은 층에서도 정보가 손실 없이 전달됩니다.
3. Muon 옵티마이저: "똑똑한 학습 코치"
Muon은 DeepSeek V4가 학습할 때 사용하는 최적화 알고리즘입니다. 기존 Adam이나 SGD 대신 새로운 방식을 도입했습니다.
🎓 학습 코치 비유로 이해하기:
모델 학습은 학생이 시험 공부를 하는 것과 비슷합니다. 옵티마이저는 학습 코치 역할을 합니다:
- 기존 코치 (Adam): "이 문제는 틀렸어. 이쪽으로 조금 수정해봐." → 점진적으로 수정하지만, 방향이 꼬일 수 있습니다.
- Muon 코치: "이 문제는 틀렸어. 서로 직교하는 방향으로 수정해봐." → 매번 수정 방향이 90도로 다른 방향이 되도록 강제합니다.
왜 직교(orthogonal)가 중요할까요?
- 수정 방향이 겹치면 같은 실수를 반복할 수 있습니다.
- 수정 방향이 서로 직교하면 매번 새로운 차원에서 개선합니다.
- 결과적으로 더 빠르게 수렴하고 더 안정적으로 학습합니다.
기술적 세부사항:
- Newton-Schulz 반복: 10번의 반복으로 직교화 수행 (8단계 빠른 수렴 + 2단계 안정화)
- Nesterov 트릭: 미래 위치를 예측해 더 빠르게 이동
- Weight Decay: 가중치가 너무 커지지 않도록 규제
⚡ 1M 토큰 컨텍스트 효율성
DeepSeek V4의 가장 큰 특징은 1M 토큰 컨텍스트를 효율적으로 처리하는 능력입니다:
| 지표 | DeepSeek-V3.2 | DeepSeek-V4-Pro | DeepSeek-V4-Flash |
|---|---|---|---|
| Single-Token FLOPs (1M context) | 100% | 27% (3.7× lower) | 10% (9.8× lower) |
| KV Cache Size (1M context) | 100% | 10% (9.5× smaller) | 7% (13.7× smaller) |
| 활성화 파라미터 | 37B | 49B | 13B |
📢 효율성 비밀: CSA+HCA 하이브리드 어텐션 + FP4 양자화 + Mixed KV storage (BF16 for RoPE + FP8 for others)가 결합하여 1M 토큰에서도 실용적인 추론이 가능합니다. 이는 기존 vanilla attention의 quadratic complexity 문제를 해결합니다.
📊 벤치마크 성능 분석

Knowledge & Reasoning
| Benchmark | Opus-4.6-Max | GPT-5.4-xHigh | Gemini-3.1-Pro | DS-V4-Pro-Max |
|---|---|---|---|---|
| MMLU-Pro (EM) | 89.1 | 87.5 | 91.0 | 87.5 |
| SimpleQA-Verified (Pass@1) | 46.2 | 45.3 | 75.6 | 57.9 |
| Chinese-SimpleQA (Pass@1) | 76.4 | 76.8 | 85.9 | 84.4 |
| GPQA Diamond (Pass@1) | 91.3 | 93.0 | 94.3 | 90.1 |
| HLE (Pass@1) | 40.0 | 39.8 | 44.4 | 37.7 |
| LiveCodeBench (Pass@1) | 88.8 | - | 91.7 | 93.5 |
| Codeforces (Rating) | - | 3168 | 3052 | 3206 |
Agent Capabilities
| Benchmark | Opus-4.6 | GPT-5.4 | K2.6 | DS-V4-Pro-Max |
|---|---|---|---|---|
| Terminal Bench 2.0 (Acc) | 65.4 | 75.1 | 82.7 | 67.9 |
| SWE Verified (Resolved) | 80.8 | 57.7 | 52.0 | 80.6 |
| SWE Pro (Resolved) | 57.3 | - | 1674 | 55.4 |
| BrowseComp (Pass@1) | 83.7 | 85.9 | 51.6 | 83.4 |
| MCPAtlas Public (Pass@1) | 53.1 | 82.7 | 1314 | 73.6 |
| Toolathlon (Pass@1) | 47.2 | 54.6 | 69.2 | 51.8 |
Long Context (1M Token)
| Benchmark | Opus-4.6 | Gemini-3.1-Pro | DS-V4-Pro-Max |
|---|---|---|---|
| MRCR 1M (MMR) | 92.9 | 71.7 | 83.5 |
| CorpusQA 1M (ACC) | 76.3 | 53.8 | 62.0 |
🏆 Key Achievements:
- Codeforces Rating 3206: 인간 참가자 중 23위 수준, 오픈소스 모델 최초로 closed model (GPT-5.4)와 동등 수준
- SimpleQA-Verified 57.9%: 기존 오픈소스 모델 대비 20 percentage points 향상
- LiveCodeBench 93.5%: 최고 수준 코딩 성능
- SWE Verified 80.6%: Opus-4.6과 동등 수준
🧠 Reasoning Modes: 3가지 추론 모드
DeepSeek V4는 세 가지 reasoning effort 모드를 지원합니다:
| 모드 | 특징 | 사용 사례 | 응답 형식 |
|---|---|---|---|
| Non-think | Fast, intuitive responses | 일상 작업, 저위험 결정 | summary |
| Think High | Conscious logical analysis | 복잡 문제 해결, 중위험 결정 | thinking + summary |
| Think Max | Maximum reasoning effort | 모델 추론 능력 한계 탐색 | thinking + summary + special system prompt |
🧠 Thinking Mode 사용법: DeepSeek V4의 추론 기능 활용
DeepSeek V4는 Thinking Mode를 통해 최종 답변을 출력하기 전에 먼저 chain-of-thought(사고 과정) 추론을 수행합니다. 이는 답변의 정확성을 크게 향상시키는 기능입니다. Thinking Mode를 활성화하면 모델이 reasoning_content와 content 두 가지 출력을 제공합니다.
🌐 Thinking Mode 설정 방법
Thinking Mode는 API 호출 시 파라미터로 설정할 수 있습니다. OpenAI SDK와 Anthropic Format 두 가지 방식을 지원합니다:
| 설정 | OpenAI Format | Anthropic Format |
|---|---|---|
| Thinking Mode 토글 | {"thinking": {"type": "enabled/disabled"}} |
{"thinking": {"type": "enabled/disabled"}} |
| Thinking Effort | {"reasoning_effort": "high/max"} |
{"output_config": {"effort": "high/max"}} |
💡 참고: Thinking Mode는 기본적으로 활성화됩니다. reasoning_effort 기본값은 high이며, 복잡한 agent 요청(예: Claude Code, OpenCode)에서는 자동으로 max로 설정됩니다. low, medium은 high로 매핑되고 xhigh는 max로 매핑됩니다.
📝 API 호출 예제 (Python)
OpenAI SDK를 사용하여 DeepSeek V4의 Thinking Mode를 호출하는 방법입니다:
from openai import OpenAI
client = OpenAI(
api_key="",
base_url="https://api.deepseek.com"
)
# Thinking Mode 활성화
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=[{"role": "user", "content": "9.11과 9.8 중 어떤 수가 더 큰가요?"}],
reasoning_effort="high",
extra_body={"thinking": {"type": "enabled"}}
)
# 추론 과정과 최종 답변 가져오기
reasoning_content = response.choices[0].message.reasoning_content
content = response.choices[0].message.content
print("=== 추론 과정 ===")
print(reasoning_content)
print("\n=== 최종 답변 ===")
print(content)
💬 Streaming 모드 예제
실시간으로 추론 과정을 확인하는 Streaming 모드 예제입니다:
from openai import OpenAI
client = OpenAI(
api_key="",
base_url="https://api.deepseek.com"
)
messages = [{"role": "user", "content": "'strawberry' 단어에 몇 개의 R이 있나요?"}]
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=messages,
stream=True,
reasoning_effort="high",
extra_body={"thinking": {"type": "enabled"}}
)
reasoning_content = ""
content = ""
for chunk in response:
if chunk.choices[0].delta.reasoning_content:
reasoning_content += chunk.choices[0].delta.reasoning_content
print(chunk.choices[0].delta.reasoning_content, end="", flush=True)
else:
content += chunk.choices[0].delta.content
print("\n\n=== 최종 답변 ===")
print(content)
⚠️ 주의: Thinking Mode에서는 temperature, top_p, presence_penalty, frequency_penalty 파라미터가 작동하지 않습니다. 설정해도 에러가 발생하지 않지만 효과가 없습니다.
🧪 DeepSeek V4 테스트 프롬프트 예제
DeepSeek V4의 Thinking Mode를 테스트해볼 수 있는 따라할 수 있는 프롬프트 예제를 제공합니다. 각 예제는 DeepSeek V4의 추론 능력을 확인할 수 있습니다.
📊 예제 1: 수 비교 문제
프롬프트:
"9.11과 9.8 중 어떤 수가 더 큰가요? 왜 그렇게 생각하는지 설명해주세요."
예상 추론 과정: 모델은 소수점 이하 자릿수 비교 (0.11 vs 0.8)를 통해 9.8이 더 크다는 결론을 도출합니다. 이는 많은 AI 모델이 실수하는 문제로, Thinking Mode의 효과를 확인할 수 있습니다.

📝 예제 2: 문자 카운트 문제
프롬프트:
"'strawberry' 단어에 몇 개의 R이 있나요? 정확하게 세어보세요."
예상 추론 과정: 모델은 s-t-r-a-w-b-e-r-r-y 순서로 각 문자를 확인하여 3개의 R이 있다는 정확한 답을 제공합니다. 이 문제는 LLM이 자주 "2개"로 오답을 제시하는 유명한 테스트입니다.

🧩 예제 3: 논리 추론 문제
프롬프트:
"Sally has 3 brothers. Each brother has 2 sisters. How many sisters does Sally have?"
(한국어: "설리는 3명의 형제가 있습니다. 각 형제는 2명의 자매가 있습니다. 설리는 몇 명의 자매가 있나요?")"
예상 추론 과정: 모델은 "형제들의 자매"가 Sally와 다른 자매를 포함한다는 점을 인식하여, Sally는 1명의 자매만 있다는 정답을 도출합니다.

💻 예제 4: 코딩 문제
프롬프트:
"Python으로 주어진 리스트에서 중복을 제거하고 원래 순서를 유지하는 함수를 작성하세요. 시간 복잡도를 최적화하세요."
예상 추론 과정: 모델은 set을 사용한 O(n) 해법과 dict.fromkeys()를 사용한 해법을 분석하고, 최적 코드를 제시합니다.

🔧 Thinking Mode에서 Tool Calls 사용
Thinking Mode는 Tool Calls(함수 호출) 기능과 함께 사용할 수 있습니다. 모델이 추론 과정에서 필요한 정보를 얻기 위해 함수를 호출하고, 결과를 기반으로 최종 답변을 생성합니다.
📝 Tool Calls 예제 코드
import os
import json
from openai import OpenAI
from datetime import datetime
# 도구 정의
tools = [
{
"type": "function",
"function": {
"name": "get_date",
"description": "Get the current date",
"parameters": {"type": "object", "properties": {}}
}
},
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get weather of a location",
"parameters": {
"type": "object",
"properties": {
"location": {"type": "string", "description": "The city name"},
"date": {"type": "string", "description": "The date in YYYY-mm-dd"}
},
"required": ["location", "date"]
}
}
}
]
# Mock 함수
def get_date_mock():
return datetime.now().strftime("%Y-%m-%d")
def get_weather_mock(location, date):
return f"{location}의 {date} 날씨: 맑음 15~22°C"
TOOL_CALL_MAP = {
"get_date": get_date_mock,
"get_weather": get_weather_mock
}
client = OpenAI(
api_key=os.environ.get('DEEPSEEK_API_KEY'),
base_url="https://api.deepseek.com"
)
messages = [{"role": "user", "content": "서울 내일 날씨가 어때요?"}]
# Tool Calls 요청
response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=messages,
tools=tools,
reasoning_effort="high",
extra_body={"thinking": {"type": "enabled"}}
)
# 추론 과정 확인
print("=== 추론 과정 ===")
print(response.choices[0].message.reasoning_content)
# Tool 호출 처리
if response.choices[0].message.tool_calls:
for tool in response.choices[0].message.tool_calls:
tool_result = TOOL_CALL_MAP[tool.function.name](**json.loads(tool.function.arguments))
print(f"\n=== Tool 결과 ({tool.function.name}) ===")
print(tool_result)
messages.append(response.choices[0].message)
messages.append({
"role": "tool",
"tool_call_id": tool.id,
"content": tool_result
})
# 최종 답변 요청
final_response = client.chat.completions.create(
model="deepseek-v4-pro",
messages=messages,
reasoning_effort="high",
extra_body={"thinking": {"type": "enabled"}}
)
print("\n=== 최종 답변 ===")
print(final_response.choices[0].message.content)
⚠️ 중요: Tool Calls를 사용하는 경우, reasoning_content를 모든 후속 요청에 반드시 포함해야 합니다. 포함하지 않으면 API가 400 에러를 반환합니다. Tool Calls가 없는 일반 멀티턴에서는 reasoning_content를 전달하지 않아도 됩니다.
💬 DeepSeek V4 Thinking Mode 채팅 데모
DeepSeek V4의 Thinking Mode를 직접 체험할 수 있는 채팅 데모입니다. API Key를 입력하고 모델을 선택하여 실시간 채팅을 테스트해보세요. reasoning_content(추론 과정)와 content(최종 답변)가 분리되어 표시됩니다.
🔒 보안 설명: 이 데모는 Vercel serverless function을 통해 API를 호출합니다. 독자의 API Key가 Vercel serverless function으로 전달되지만, Vercel은 Key를 저장하지 않고 실행 후 종료됩니다. CORS Proxy 방식보다 안전합니다.
📌 사용 방법: API Key를 입력하고 채팅하세요. 테스트 후에는 사용량을 확인하세요.
💰 API 가격 및 이용 방법
DeepSeek V4는 API와 HuggingFace 다운로드 두 가지 방법으로 이용할 수 있습니다:
API 이용
DeepSeek 공식 API에서 V4 모델이 제공됩니다. 가격은 DeepSeek API 문서에서 확인할 수 있습니다:
- API 문서: DeepSeek API Docs
- Pricing 페이지: Models & Pricing
HuggingFace 다운로드 (무료)
모델 weights는 MIT License로 HuggingFace에서 무료 다운로드 가능합니다:
# HuggingFace에서 모델 다운로드
from transformers import AutoModelForCausalLM, AutoTokenizer
# DeepSeek-V4-Pro
model = AutoModelForCausalLM.from_pretrained(
"deepseek-ai/DeepSeek-V4-Pro",
trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V4-Pro")
# DeepSeek-V4-Flash (더 작고 빠른 버전)
model_flash = AutoModelForCausalLM.from_pretrained(
"deepseek-ai/DeepSeek-V4-Flash",
trust_remote_code=True
)
⚠️ 로컬 실행 주의사항: DeepSeek-V4-Pro은 1.6T 파라미터로 로컬 실행에 대규모 GPU 리소스가 필요합니다. V4-Flash (284B)는 더 실용적인 로컬 실행 옵션입니다. 공식 inference 코드는 HuggingFace repository의 inference/README.md를 참조하세요.
🔍 V3.2 vs V4 비교
| 특징 | DeepSeek-V3.2 | DeepSeek-V4 |
|---|---|---|
| 전체 파라미터 | 671B | 1.6T (Pro) / 284B (Flash) |
| 활성화 파라미터 | 37B | 49B (Pro) / 13B (Flash) |
| 컨텍스트 길이 | 128K | 1M 토큰 |
| 어텐션 | Dense + MLA | CSA + HCA Hybrid |
| Residual Connection | Standard | mHC (Manifold-Constrained) |
| 옵티마이저 | AdamW | Muon |
| Quantization | FP8 | FP4 + FP8 Mixed |
| 훈련 데이터 | 14.8T tokens | 32T+ tokens |
| 라이선스 | DeepSeek License | MIT License |
🔧 기술적 특징 상세
FP4 Quantization-Aware Training
DeepSeek V4는 FP4 양자화를 통해 추론 효율성을 극대화합니다:
- MoE expert weights: FP4로 양자화 → 메모리 절약
- Indexer QK path: FP4로 attention score 계산 가속
- FP4 → FP8 dequantization은 lossless (E4M3 > E2M1 dynamic range)
- 향후 하드웨어에서 FP4 × FP8이 FP8 × FP8 대비 1/3 더 효율 가능
훈련 인프라
DeepSeek V4는 대규모 훈련을 위한 인프라 혁신도 포함합니다:
- TileLang DSL: Kernel development productivity + efficiency balance
- MegaMoE: Fine-grained EP with computation-communication overlap (1.50~1.73× speedup)
- Batch-invariant kernels: Bitwise reproducibility across training/inference
- Contextual Parallelism: Two-stage communication for compressed attention
⚠️ 한계점 및 주의사항
- Preview 버전: 현재 release는 preview 버전으로, 최종 버전에서 변경 가능
- 로컬 실행 리소스: V4-Pro은 1.6T 파라미터로 대규모 GPU cluster 필요
- Architecture complexity: CSA+HCA+mHC 등 복잡한 아키텍처로 future iterations에서 simplification 예정
- Knowledge gap: Gemini-3.1-Pro 등 최고 closed model 대비 knowledge benchmarks에서 약간落后
- Agent performance: Terminal Bench 2.0에서 K2.6, GLM-5.1 등에 비해 낮은 성능
🎯 맺음말
지금까지 DeepSeek V4 Preview에 대해 알아보았습니다. DeepSeek V4는 1M 토큰 컨텍스트, CSA+HCA 하이브리드 어텐션, mHC residual connection, Muon 옵티마이저 등 4가지 핵심 혁신을 통해 오픈소스 LLM의 새로운 이정표를 세웠습니다. 특히 V3.2 대비 1M 컨텍스트에서 FLOPs 27%, KV 캐시 10%만 사용하는 극적인 효율성 향상을 달성했습니다.
DeepSeek-V4-Pro-Max는 Codeforces Rating 3206 (인간 23위), LiveCodeBench 93.5%, SWE Verified 80.6% 등 오픈소스 모델 최고 성능을 기록하며, SimpleQA-Verified에서 기존 오픈소스 대비 20 percentage points 향상을 달성했습니다. 모델 weights는 MIT License로 HuggingFace에서 무료 다운로드 가능합니다.
다만 Preview 버전으로 최종 버전에서 변경 가능하며, V4-Pro 로컬 실행에는 대규모 GPU 리소스가 필요합니다. V4-Flash (284B/13B)가 더 실용적인 로컬 실행 옵션입니다. 여러분도 로컬 실행 또는 DeepSeek V4 API를 이용해서 체험해보시길 추천드리면서 저는 다음 시간에 더 유익한 정보를 가지고 다시 찾아뵙겠습니다. 감사합니다.

📚 참고 문헌 및 출처
- DeepSeek-AI. (2026). DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence. Retrieved from HuggingFace Collection
- DeepSeek-AI. (2026). DeepSeek-V4 Preview Release Announcement. Retrieved from DeepSeek API Docs
- DeepSeek-AI. (2026). Thinking Mode Guide. Retrieved from DeepSeek API Docs - Thinking Mode
- CNBC. (2026). China's DeepSeek releases preview of long-awaited V4 model as AI competition heats up. Retrieved from CNBC
- DeepInfra. (2026). DeepSeek-V4-Pro Model Card. Retrieved from DeepInfra
'AI 도구' 카테고리의 다른 글
| 🤖 Hermes Agent v2026.4.23 Interface Release - 119K 스타 오픈소스 자가 개선 AI 에이전트 (0) | 2026.04.28 |
|---|---|
| 🚀 Qwen3.6-Max-Preview: 6개 벤치마크 1위 달성한 알리바바 최신 플래그십 (0) | 2026.04.27 |
| 🆓 ChatGPT Images 2.0 완벽 가이드: Thinking Mode와 다국어 텍스트 렌더링 (1) | 2026.04.22 |
| 🤖 agent-skills: AI 코딩 에이전트를 시니어 엔지니어로 만드는 프로덕션급 스킬 (1) | 2026.04.22 |
| 🤖 WebMCP: Chrome이 AI 에이전트를 위해 웹사이트를 도구로 변환하는 새로운 표준 (1) | 2026.04.19 |