2026 제미나이 3.1 플래시 라이트 총정리: 가격, 벤치마크, GPT-5 mini 비교

제미나이 3.1 플래시 라이트, 뭐가 다른 거예요?

구글이 2026년 3월 3일, 제미나이 3.1 플래시 라이트(Gemini 3.1 Flash-Lite)를 공개 프리뷰로 출시했어요. 입력 100만 토큰당 $0.25, 출력 $1.50. 프리미엄 모델인 제미나이 3.1 프로의 1/8 가격이에요. 그런데 싸기만 한 게 아니라, 경쟁 경량 모델 11개 벤치마크 중 6개에서 1위를 차지했거든요.

대량 번역, 콘텐츠 분류, 고객 응대처럼 API 호출이 많은 업무에 딱 맞는 모델이에요. 가격이랑 성능, 경쟁 모델까지 비교해 봤습니다.

핵심 스펙 한눈에 보기

항목
API 모델 IDgemini-3.1-flash-lite-preview
입력 가격$0.25 / 1M 토큰
출력 가격$1.50 / 1M 토큰
컨텍스트 윈도우1,048,576 토큰 (약 1M)
최대 출력65,536 토큰 (64K)
출력 속도363 토큰/초
입력 모달리티텍스트, 이미지, 오디오, 비디오
출력 모달리티텍스트만
상태공개 프리뷰 (GA 미정)

컨텍스트 윈도우가 약 105만 토큰으로, GPT-5 mini(40만)의 2.5배 이상이에요. 입력은 텍스트뿐 아니라 이미지, 오디오, 비디오까지 받을 수 있고요. 다만 출력은 텍스트만 가능합니다. 이미지 생성이나 컴퓨터 사용 기능은 지원하지 않아요.

배치 API를 쓰면 입출력 모두 50% 할인돼서, 입력 $0.125, 출력 $0.75까지 낮출 수 있습니다.

GPT-5 mini, 하이쿠와 가격 비교

같은 경량 모델 포지션인 GPT-5 mini, 클로드 4.5 하이쿠와 나란히 놓고 봤어요.

모델입력 ($/1M)출력 ($/1M)컨텍스트출력 속도
Flash-Lite$0.25$1.501M363 t/s
GPT-5 mini$0.25$2.00400K~71 t/s
Claude 4.5 Haiku$1.00$5.00200K~108 t/s
Grok 4.1 Fast$0.20$0.502M~145 t/s
Gemini 3.1 Pro$2.00$12.001M

입력 가격은 GPT-5 mini와 동일($0.25)인데, 출력은 25% 저렴해요($1.50 vs $2.00). 클로드 4.5 하이쿠와 비교하면 입력 4배, 출력 3.3배나 싸고요. Grok 4.1 Fast($0.20/$0.50)가 가격만 놓으면 가장 저렴하지만, 벤치마크 성능은 뒤에서 비교해 볼게요. 컨텍스트 윈도우는 하이쿠(200K)의 5배입니다.

속도 차이도 눈에 띄어요. 구글 측정 기준 초당 363토큰은 GPT-5 mini(약 71 t/s)의 약 5배, 하이쿠(약 108 t/s)의 약 3.4배입니다. 이전 세대인 제미나이 2.5 플래시 다이나믹(249 t/s)보다도 45% 이상 빨라졌어요.

벤치마크 — 싸다고 성능까지 밀리진 않아요

구글 DeepMind가 공개한 평가 결과를 보면, 11개 벤치마크 중 6개에서 경쟁 경량 모델을 이겼어요.

벤치마크Flash-LiteGPT-5 miniClaude 4.5 Haiku
GPQA Diamond (과학 추론)86.9%82.3%73.0%
MMMU Pro (멀티모달)76.8%74.1%58.0%
SimpleQA (사실 정확도)43.3%9.5%5.5%
MMMLU (다국어)88.9%84.9%83.0%
Video-MMMU (영상 이해)84.8%82.5%
LiveCodeBench (코딩)72.0%80.4%53.2%

※ 위 수치는 구글 DeepMind가 자체 환경에서 측정한 결과입니다. 경쟁 모델 점수도 구글이 측정한 것으로, 각 회사의 공식 수치와 다를 수 있어요.

사실 정확도(SimpleQA)에서 43.3%로, Grok 4.1 Fast(19.5%), GPT-5 mini(9.5%), 하이쿠(5.5%)를 모두 앞질렀어요. 단답형 사실 질문 정확도가 경쟁 모델보다 높다는 뜻이에요. 다국어(88.9%), 멀티모달(76.8%), 영상 이해(84.8%)에서도 모두 1위고요.

다만 코딩(LiveCodeBench)에서는 GPT-5 mini(80.4%)에 8.4%p 뒤져요. 코딩 중심이라면 GPT-5 mini가 낫습니다.

Thinking Levels로 추론 깊이를 조절해요

경량 모델에서 특히 유용한 기능이에요. API에서 thinking_level 파라미터로 추론 깊이를 4단계로 조절할 수 있거든요.

레벨용도특징
Minimal (기본값)번역, 분류가장 빠른 응답, 2초 이내
Low요약, 추출약간의 추론 추가
Medium고객 응대, 구조화 출력균형 잡힌 추론, ~5초
HighUI 디자인, 다단계 지시풀 추론 모드

기본값이 Minimal이라 단순 번역이나 분류는 2초 안에 끝나요(구글 기준). 복잡한 작업이 필요하면 High로 올리면 되고, 비용도 그만큼 늘어납니다. 하나의 모델로 속도와 정확도 사이를 자유롭게 조절할 수 있는 셈이죠. Thinking 기능 자체는 3.1 프로 등 다른 제미나이 3 시리즈에서도 지원되지만, Minimal 레벨은 3 플래시와 3.1 플래시 라이트에서만 쓸 수 있어요.

참고로 GPT-5.4 출시 총정리도 같이 보시면 요즘 AI 모델 흐름이 어떤지 비교하기 좋아요.

자주 묻는 질문

Q. 제미나이 3.1 플래시 라이트는 무료로 쓸 수 있나요?

네, 무료 티어가 있어요. Google AI Studio에서 바로 테스트할 수 있고, Vertex AI에서도 사용 가능합니다. 다만 현재 공개 프리뷰 상태라 SLA는 제공되지 않고, 정식 출시(GA) 일정도 아직 발표되지 않았어요.

Q. 제미나이 3.1 프로와 뭐가 다른가요?

프로는 복잡한 추론과 코딩에 강한 프리미엄 모델이고, 플래시 라이트는 대량 처리에 최적화된 경량 모델이에요. 가격이 8배 차이 나죠. 간단한 번역·분류·요약 같은 대량 작업에는 플래시 라이트가, 복잡한 분석·코딩에는 프로가 적합합니다.

Q. 코딩 작업엔 어떤 모델이 낫나요?

LiveCodeBench 기준 GPT-5 mini가 80.4%로 플래시 라이트(72.0%)보다 앞서요. 코딩이 주 용도라면 GPT-5 mini가 낫습니다. 반면 다국어 번역, 멀티모달 처리, 사실 확인이 중요한 작업에서는 플래시 라이트가 앞섭니다.

Q. 이미지 생성이나 컴퓨터 사용도 되나요?

안 돼요. 플래시 라이트는 텍스트 출력만 지원합니다. 이미지 생성은 제미나이 3.1 Flash Image 모델을, 컴퓨터 사용은 별도 모델(gemini-2.5-computer-use-preview-10-2025)을 써야 해요.

Similar Posts