العودة للتوثيق

الربط السحابي عبر OpenRouter

طريقة استخدام AsyncOpenAI للوصول لأضخم النماذج العالمية مجاناً

لماذا موديل Nemotron-3-120B؟

يعتبر موديل nvidia/nemotron-3-super-120b-a12b:free من أقوى النماذج المتاحة مجانًا على منصة OpenRouter لعدة أسباب:

  • حجم ضخم: يحتوي على 120 مليار بارامتر، مما يجعله يتفوق على GPT-3.5 وبعض إصدارات GPT-4 في صياغة النصوص الطويلة.
  • دقة عالية: يتميز بقدرة مذهلة على فهم السياق المعقد والتعليمات البرمجية.
  • مجاني تماماً: يوفر أداءً يقارب النماذج المدفوعة دون تكاليف إضافية لمشروع ONYX في بدايته.

التنفيذ البرمجي (Python)

نستخدم مكتبة AsyncOpenAI لضمان عدم توقف السيرفر أثناء انتظار الرد (Asynchronous)، وهو أمر ضروري في محرك ONYX لتجربة مستخدم سريعة.

from openai import AsyncOpenAI
import os

# إعداد العميل مع رابط OpenRouter
client = AsyncOpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key="YOUR_OPENROUTER_API_KEY", # ضعي مفتاحك هنا
)

async def ask_onyx_cloud(user_prompt):
    response = await client.chat.completions.create(
        model="nvidia/nemotron-3-super-120b-a12b:free",
        messages=[
            {
                "role": "system",
                "content": "You are ONYX AI, a professional assistant developed by RUI Company."
            },
            {
                "role": "user",
                "content": user_prompt
            }
        ],
        temperature=0.7,
        max_tokens=1024
    )
    return response.choices[0].message.content

المكتبات المطلوبة (requirements.txt)

openai>=1.0.0
python-dotenv
aiohttp

* ملاحظة: يجب استخدام إصدار openai 1.0 أو أحدث ليدعم الـ AsyncOpenAI.

خطوات الربط

  1. سجلي في OpenRouter.ai واحصل على API Key.
  2. تأكدي من توفر الرصيد (حتى لو كان الموديل مجاني، بعض النماذج تتطلب حساباً مفعلاً).
  3. استخدمي base_url الموضح أعلاه ليعرف الـ SDK أن الطلب خارجي.

ملاحظة الأداء

بما أن الموديل مجاني، قد يكون هناك "Rate Limit" (حد أقصى للطلبات) في أوقات الذروة. يفضل دائماً وجود "Fallback" أو موديل احتياطي (مثل Qwen المحلي) في حال فشل الاتصال بالسحاب.

Author: ONYX (2026)

Base Model: Nemotron-3-120B