LLM 프롬프트 엔지니어링 고급 기법: 실전에서 바로 쓰는 프롬프트 패턴
Chain of Thought, Few-Shot Learning, Self-Consistency 등 실무에서 즉시 활용 가능한 고급 프롬프트 엔지니어링 기법을 코드 예제와 함께 소개합니다.
2025년 현재, 상용 AI 모델 시장은 네 개의 주요 플레이어가 지배하고 있습니다.
| 모델 | 개발사 | 최신 버전 | 컨텍스트 길이 | 가격 (1M 토큰) |
|---|---|---|---|---|
| GPT-4 Turbo | OpenAI | gpt-4-turbo-2024-04-09 | 128K | $10 / $30 |
| Claude 3 | Anthropic | claude-3-opus-20240229 | 200K | $15 / $75 |
| Gemini Pro | gemini-1.5-pro | 1M | $7 / $21 | |
| Llama 3 | Meta | llama-3-70b | 8K | 무료 (오픈소스) |
# GPT-4 Turbo
입력: $10 / 1M 토큰
출력: $30 / 1M 토큰
# GPT-4o (최신)
입력: $5 / 1M 토큰
출력: $15 / 1M 토큰
# GPT-3.5 Turbo (저렴한 옵션)
입력: $0.50 / 1M 토큰
출력: $1.50 / 1M 토큰
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="gpt-4-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing"}
],
temperature=0.7
)
print(response.choices[0].message.content)
# Claude 3 Opus (최고 성능)
입력: $15 / 1M 토큰
출력: $75 / 1M 토큰
# Claude 3 Sonnet (균형)
입력: $3 / 1M 토큰
출력: $15 / 1M 토큰
# Claude 3 Haiku (빠름/저렴)
입력: $0.25 / 1M 토큰
출력: $1.25 / 1M 토큰
import anthropic
client = anthropic.Anthropic()
message = client.messages.create(
model="claude-3-opus-20240229",
max_tokens=1024,
messages=[
{"role": "user", "content": "Analyze this 50-page document..."}
]
)
print(message.content)
# 200K 토큰 = 약 150,000 단어 = 300페이지 분량
# 전체 책을 한 번에 분석 가능
response = client.messages.create(
model="claude-3-opus-20240229",
max_tokens=4096,
messages=[{
"role": "user",
"content": f"다음 책 전체를 요약하세요:\n\n{entire_book_text}"
}]
)
# Gemini 1.5 Pro
입력: $7 / 1M 토큰
출력: $21 / 1M 토큰
# Gemini 1.5 Flash (빠름/저렴)
입력: $0.35 / 1M 토큰
출력: $1.05 / 1M 토큰
import google.generativeai as genai
genai.configure(api_key="your-api-key")
model = genai.GenerativeModel('gemini-1.5-pro')
# 텍스트 생성
response = model.generate_content("Explain AI")
# 이미지 분석
import PIL.Image
img = PIL.Image.open('image.jpg')
response = model.generate_content(["Describe this image", img])
# 비디오 분석
video_file = genai.upload_file(path="video.mp4")
response = model.generate_content([video_file, "Summarize this video"])
# 여러 모달리티를 동시에 처리
response = model.generate_content([
"이 이미지들과 동영상을 분석하고 리포트 작성:",
image1,
image2,
video,
"추가 컨텍스트: ..."
])
# Ollama로 로컬 실행
ollama run llama3:70b
# API 사용
from langchain.llms import Ollama
llm = Ollama(model="llama3:70b")
response = llm("Explain machine learning")
print(response)
| 모델 | 정확도 |
|---|---|
| GPT-4 Turbo | 90.2% |
| Claude 3 Opus | 84.9% |
| Gemini 1.5 Pro | 84.1% |
| Llama 3 70B | 81.7% |
| 모델 | 정확도 |
|---|---|
| GPT-4 Turbo | 72.6% |
| Claude 3 Opus | 60.1% |
| Gemini 1.5 Pro | 67.7% |
| Llama 3 70B | 50.4% |
| 모델 | 정확도 |
|---|---|
| Claude 3 Opus | 86.8% |
| GPT-4 Turbo | 86.4% |
| Gemini 1.5 Pro | 85.9% |
| Llama 3 70B | 79.5% |
시나리오 1: 문서 요약 (100페이지 PDF, 매일 10건)
입력: 75K 토큰 × 10 = 750K 토큰/일
출력: 1K 토큰 × 10 = 10K 토큰/일
월간 비용:
- GPT-4 Turbo: $234
- Claude Opus: $706
- Gemini Pro: $164
- Llama 3: $0 (로컬)
시나리오 2: 챗봇 (1일 1000 대화, 평균 10턴)
입력: 500 토큰 × 10 × 1000 = 5M 토큰/일
출력: 200 토큰 × 10 × 1000 = 2M 토큰/일
월간 비용:
- GPT-4 Turbo: $3,300
- Claude Sonnet: $1,350
- Gemini Pro: $2,310
- Llama 3: $0
스타트업 MVP → GPT-3.5 Turbo 또는 Gemini Flash
기업 고객 지원 → GPT-4 Turbo 또는 Claude Sonnet
법률/의료 문서 분석 → Claude 3 Opus
비용 최적화 → Gemini Pro 또는 Llama 3
대용량 데이터 처리 → Gemini 1.5 Pro
데이터 프라이버시 → Llama 3 (자체 호스팅)
실전에서는 여러 모델을 조합하여 사용합니다.
def route_to_model(query, complexity):
if complexity == "simple":
# 간단한 질문 → 저렴한 모델
return gpt_35_turbo(query)
elif complexity == "medium":
return gemini_pro(query)
else:
# 복잡한 질문 → 고성능 모델
return gpt_4_turbo(query)
try:
# 우선 저렴한 모델 시도
result = gemini_flash(query)
if confidence_score(result) < 0.8:
# 신뢰도 낮으면 더 강력한 모델 사용
result = gpt_4_turbo(query)
except Exception:
# 에러 시 폴백
result = claude_opus(query)
def handle_query(query, task_type):
if task_type == "code":
return gpt_4_turbo(query) # 코딩 최고
elif task_type == "long_document":
return claude_opus(query) # 긴 문서 최고
elif task_type == "multimodal":
return gemini_pro(query) # 멀티모달 최고
else:
return gpt_35_turbo(query) # 범용
| 선택 기준 | 추천 모델 |
|---|---|
| 최고 성능 | GPT-4 Turbo |
| 긴 문서 | Claude 3 Opus |
| 비용 효율 | Gemini Pro |
| 무료/오픈소스 | Llama 3 |
| 멀티모달 | Gemini Pro |
| 안정성 | Claude 3 |
| 생태계 | GPT-4 |
핵심 조언:
AI 모델은 계속 발전합니다. 최신 정보를 주기적으로 확인하세요!