Dòng mô hình mở Gemma 4 của Google hiện đã có mặt trên Gemini API và Google AI Studio. Được xây dựng dựa trên cùng những nghiên cứu đằng sau Gemini 3, các mô hình này mang lại khả năng suy luận tiên tiến, gọi hàm bản xứ (native function calling), hiểu đa phương thức và cửa sổ ngữ cảnh lên tới 256K vào một gói mã nguồn mở (giấy phép Apache 2.0) mà bạn có thể chạy ở bất cứ đâu.
Hiện có hai mô hình sẵn sàng trên Gemini API:
- gemma-4-26b-a4b-it
- **gemma-4-31b-it
Điểm khác biệt của Gemma 4
Các mô hình Gemma 4 xử lý việc gọi hàm, xuất dữ liệu cấu trúc JSON và các chỉ dẫn hệ thống (system instructions) ở cấp độ mô hình thay vì thông qua kỹ thuật đặt câu lệnh (prompt engineering). Mô hình dense 31B hiện đứng thứ #3 trên bảng xếp hạng văn bản Arena AI dành cho các mô hình mở, trong khi mô hình MoE 26B đứng thứ #6, cạnh tranh sòng phẳng với các mô hình có kích thước lớn gấp 20 lần.
Các khả năng chính:
- Cửa sổ ngữ cảnh 256K trên cả hai mô hình.
- Gọi hàm bản xứ và xuất dữ liệu có cấu trúc.
- Đa phương thức: văn bản, hình ảnh và video.
- Được huấn luyện bản xứ trên hơn 140 ngôn ngữ.
- Giấy phép Apache 2.0: cho phép sử dụng thương mại hoàn toàn, không hạn chế.
Bắt đầu với AI Studio
Cách nhanh nhất để dùng thử Gemma 4 là thông qua Google AI Studio. Chọn
gemma-4-26b-a4b-it hoặc gemma-4-31b-it từ trình chọn mô hình, nhập câu lệnh và bắt đầu trò chuyện. Bạn có thể kiểm tra chỉ dẫn hệ thống, điều chỉnh nhiệt độ (temperature) và thử nghiệm với các đầu vào đa phương thức ngay trên trình duyệt mà không cần API key hay viết code.Hoặc nhấp vào Get Code để xuất các đoạn mã Python, JavaScript hoặc cURL từ bất kỳ cuộc hội thoại nào.
Sử dụng Gemma 4 với Gemini API
Cài đặt Python SDK:
pip install google-genai
Thiết lập API key của bạn làm biến môi trường. Bạn có thể tạo mã này tại aistudio.google.com/apikey.
export GEMINI_API_KEY="your-api-key"
Tạo văn bản
Tạo văn bản với Gemma 4:
from google import genai
client = genai.Client()
response = client.models.generate_content(
model="gemma-4-26b-a4b-it",
contents="So sánh ramen và udon qua 3 gạch đầu dòng: nước dùng, kết cấu sợi mì và mùa ăn ngon nhất."
)
print(response.text)
Truyền chỉ dẫn hệ thống để thiết lập hành vi của mô hình:
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemma-4-31b-it",
config=types.GenerateContentConfig(
system_instruction="Bạn là một bậc thầy trà đạo Kyoto thông thái. Hãy nói chuyện bình tĩnh, đậm chất thơ và sử dụng các ẩn dụ về thiên nhiên. Trả lời dưới 3 câu."
),
contents="Mục đích của trà đạo là gì?"
)
print(response.text)
Hội thoại nhiều lượt
SDK cung cấp giao diện chat tự động theo dõi lịch sử hội thoại:
from google import genai client = genai.Client() chat = client.chats.create(model="gemma-4-26b-a4b-it") response = chat.send_message("Ba lâu đài nổi tiếng nhất Nhật Bản là gì?") print(response.text) response = chat.send_message("Tôi nên tham quan cái nào vào mùa xuân để ngắm hoa anh đào?") print(response.text)
Hiểu hình ảnh
Truyền một hình ảnh cùng với câu lệnh văn bản của bạn:
from google import genai from google.genai import types client = genai.Client() with open("duong/dan/den/anh.png", "rb") as f: image_bytes = f.read() response = client.models.generate_content( model="gemma-4-26b-a4b-it", contents=[ types.Part.from_bytes(data=image_bytes, mime_type="image/png"), "Mô tả hình ảnh này trong 2-3 câu giống như đang viết chú thích cho một tạp chí du lịch Nhật Bản." ] ) print(response.text)
Gọi hàm (Function calling)
Định nghĩa các công cụ dưới dạng khai báo hàm. Mô hình sẽ tự quyết định khi nào cần gọi chúng:
from google import genai
from google.genai import types
# Định nghĩa khai báo hàm
get_weather = {
"name": "get_weather",
"description": "Lấy thông tin thời tiết hiện tại cho một địa điểm cụ thể.",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "Thành phố và tiểu bang, ví dụ: 'Hanoi, VN'",
},
},
"required": ["location"],
},
}
client = genai.Client()
tools = types.Tool(function_declarations=[get_weather])
config = types.GenerateContentConfig(tools=[tools])
response = client.models.generate_content(
model="gemma-4-26b-a4b-it",
contents="Tôi có nên mang ô đến Kyoto hôm nay không?",
config=config,
)
# Mô hình trả về một lời gọi hàm thay vì văn bản
if response.candidates[0].content.parts[0].function_call:
fc = response.candidates[0].content.parts[0].function_call
print(f"Hàm: {fc.name}")
print(f"Đối số: {fc.args}")
Google Search
Bổ trợ câu trả lời của Gemma 4 bằng dữ liệu web thời gian thực với Google Search:
from google import genai
from google.genai import types
client = genai.Client()
response = client.models.generate_content(
model="gemma-4-26b-a4b-it",
contents="Lịch mùa hoa anh đào tại Tokyo năm nay là khi nào?",
config=types.GenerateContentConfig(
tools=[{"google_search":{}}]
),
)
print(response.text)
# Truy cập dữ liệu tham chiếu (grounding metadata) để trích dẫn nguồn
for chunk in response.candidates[0].grounding_metadata.grounding_chunks:
print(f"Nguồn: {chunk.web.title} — {chunk.web.uri}")
Bước tiếp theo
- Google AI Studio — Dùng thử Gemma 4 trên trình duyệt.
- Tài liệu Gemini API
- Tài liệu Gemma
- Gemma Cookbooks (Sách hướng dẫn thực hành)
Nguồn bài viết từ Tác giả Phil Schmid