Quay lại Blog
Bắt đầu với GauGau AI: Hướng dẫn đầy đủ
Tutorial
5 min read

Bắt đầu với GauGau AI: Hướng dẫn đầy đủ

Học cách tích hợp GauGau AI vào ứng dụng của bạn chỉ trong vài phút. Hướng dẫn toàn diện về thiết lập API, xác thực và lời gọi API đầu tiên.

GauGau Team
GauGau Team
Bởi GauGau Team

Bắt đầu với GauGau AI

Chào mừng đến với GauGau AI! Hướng dẫn này sẽ giúp bạn nắm vững mọi thứ cần biết để bắt đầu sử dụng API thống nhất của chúng tôi để truy cập 700+ mô hình AI từ 60+ nhà cung cấp.

Tại sao chọn GauGau AI?

GauGau AI cung cấp một API duy nhất, chuẩn hóa hoạt động với mọi mô hình AI lớn. Thay vì quản lý nhiều API key và học các API khác nhau cho từng nhà cung cấp, bạn nhận được:

  • Một API cho mọi thứ - Giao diện tương thích OpenAI cho tất cả các mô hình
  • Tự động chuyển đổi dự phòng - Không bao giờ gặp thời gian chết khi nhà cung cấp offline
  • Định tuyến thông minh - Tự động nhận giá và độ trễ tốt nhất
  • Giá đơn giản - Chỉ trả cho những gì bạn sử dụng, không cần đăng ký

Bước 1: Lấy API Key của bạn

Bắt đầu cực kỳ đơn giản:

  1. Liên hệ chúng tôi trên Telegram tại @gaugauai
  2. Chọn gói credits của bạn (bắt đầu từ $9)
  3. Thanh toán qua chuyển khoản ngân hàng hoặc ví điện tử (Momo, ZaloPay, ViettelPay)
  4. Nhận API key của bạn trong vài phút

Không cần tạo tài khoản. Không cần thẻ tín dụng quốc tế.

Bước 2: Thực hiện lời gọi API đầu tiên

Khi đã có API key, việc thực hiện request đầu tiên rất đơn giản. Đây là ví dụ đơn giản sử dụng Python:

import openai

client = openai.OpenAI(
    api_key="YOUR_GAUGAU_API_KEY",
    base_url="https://api.gaugauai.com/v1"
)

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[
        {"role": "user", "content": "Xin chào, bạn khỏe không?"}
    ]
)

print(response.choices[0].message.content)

Vậy là xong! Bạn đang sử dụng GPT-4o thông qua GauGau AI.

Bước 3: Thử các mô hình khác nhau

Điểm đẹp của GauGau AI là việc chuyển đổi mô hình đơn giản như thay đổi một tham số:

# Sử dụng Claude 3.5 Sonnet
response = client.chat.completions.create(
    model="claude-3.5-sonnet",
    messages=[{"role": "user", "content": "Giải thích điện toán lượng tử"}]
)

# Sử dụng Gemini Pro
response = client.chat.completions.create(
    model="gemini-pro",
    messages=[{"role": "user", "content": "Viết một bài thơ về AI"}]
)

# Sử dụng DeepSeek cho các tác vụ tiết kiệm chi phí
response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[{"role": "user", "content": "Tóm tắt văn bản này"}]
)

Hiểu về giá Token

GauGau AI sử dụng hệ thống credits đơn giản:

  • $1 = 500,000 token cơ bản
  • Các mô hình khác nhau có hệ số nhân tỷ lệ khác nhau
  • Mô hình tiết kiệm (tỷ lệ 0.22): DeepSeek, Qwen, Gemma
  • Mô hình tiêu chuẩn (tỷ lệ 0.3): Llama, Mistral, Phi
  • Mô hình nâng cao (tỷ lệ 0.5): GPT-4o mini, Claude Haiku
  • Mô hình cao cấp (tỷ lệ 1.0): GPT-4o, Claude Opus, Gemini Pro

Tất cả các tỷ lệ đều cho bạn cùng số lượng token - tỷ lệ cao hơn chỉ có nghĩa là mô hình mạnh mẽ và có khả năng hơn.

Thực hành tốt nhất

1. Chọn mô hình phù hợp cho tác vụ

Đừng sử dụng mô hình cao cấp cho các tác vụ đơn giản. Sử dụng mô hình tiết kiệm cho:

  • Tóm tắt văn bản
  • Hỏi đáp đơn giản
  • Phân loại nội dung
  • Trích xuất dữ liệu

Dành mô hình cao cấp cho:

  • Lý luận phức tạp
  • Viết sáng tạo
  • Tạo mã nguồn
  • Giải quyết vấn đề nhiều bước

2. Triển khai xử lý lỗi

Luôn xử lý các lỗi tiềm ẩn trong mã của bạn:

try:
    response = client.chat.completions.create(
        model="gpt-4o",
        messages=[{"role": "user", "content": "Xin chào"}]
    )
except openai.APIError as e:
    print(f"Lỗi API: {e}")
except openai.RateLimitError as e:
    print(f"Vượt quá giới hạn tốc độ: {e}")

3. Theo dõi việc sử dụng của bạn

Theo dõi mức tiêu thụ token để tối ưu hóa chi phí:

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Xin chào"}]
)

print(f"Token đã sử dụng: {response.usage.total_tokens}")
print(f"Token prompt: {response.usage.prompt_tokens}")
print(f"Token completion: {response.usage.completion_tokens}")

Tính năng nâng cao

Streaming Responses

Nhận phản hồi khi chúng được tạo ra để có UX tốt hơn:

stream = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Viết một câu chuyện"}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="")

Function Calling

Cho phép mô hình gọi các hàm của bạn:

functions = [
    {
        "name": "get_weather",
        "description": "Lấy thời tiết hiện tại",
        "parameters": {
            "type": "object",
            "properties": {
                "location": {"type": "string"}
            }
        }
    }
]

response = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role": "user", "content": "Thời tiết ở Tokyo như thế nào?"}],
    functions=functions
)

Các bước tiếp theo

Bây giờ bạn đã sẵn sàng, hãy khám phá:

  • Duyệt danh mục mô hình của chúng tôi để khám phá 700+ mô hình có sẵn
  • Xem các tùy chọn giá để tìm gói tốt nhất cho nhu cầu của bạn
  • Tham gia cộng đồng của chúng tôi trên Telegram để được hỗ trợ và cập nhật

Cần trợ giúp?

Nếu bạn gặp bất kỳ vấn đề nào hoặc có câu hỏi:

  • Liên hệ chúng tôi trên Telegram: @gaugauai
  • Email hỗ trợ: support@gaugauai.com
  • Kiểm tra tài liệu của chúng tôi để biết tham chiếu API chi tiết

Chúc bạn xây dựng thành công với GauGau AI!

Thẻ:#getting-started#api#integration#tutorial
Chia sẻ bài viết: