طريقة استخدام AsyncOpenAI للوصول لأضخم النماذج العالمية مجاناً
يعتبر موديل nvidia/nemotron-3-super-120b-a12b:free من أقوى النماذج المتاحة مجانًا على منصة OpenRouter لعدة أسباب:
نستخدم مكتبة AsyncOpenAI لضمان عدم توقف السيرفر أثناء انتظار الرد (Asynchronous)، وهو أمر ضروري في محرك ONYX لتجربة مستخدم سريعة.
from openai import AsyncOpenAI
import os
# إعداد العميل مع رابط OpenRouter
client = AsyncOpenAI(
base_url="https://openrouter.ai/api/v1",
api_key="YOUR_OPENROUTER_API_KEY", # ضعي مفتاحك هنا
)
async def ask_onyx_cloud(user_prompt):
response = await client.chat.completions.create(
model="nvidia/nemotron-3-super-120b-a12b:free",
messages=[
{
"role": "system",
"content": "You are ONYX AI, a professional assistant developed by RUI Company."
},
{
"role": "user",
"content": user_prompt
}
],
temperature=0.7,
max_tokens=1024
)
return response.choices[0].message.contentfrom openai import AsyncOpenAI
import os
# إعداد العميل مع رابط OpenRouter
client = AsyncOpenAI(
base_url="https://openrouter.ai/api/v1",
api_key="YOUR_OPENROUTER_API_KEY", # ضعي مفتاحك هنا
)
async def ask_onyx_cloud(user_prompt):
response = await client.chat.completions.create(
model="nvidia/nemotron-3-super-120b-a12b:free",
messages=[
{
"role": "system",
"content": "You are ONYX AI, a professional assistant developed by RUI Company."
},
{
"role": "user",
"content": user_prompt
}
],
temperature=0.7,
max_tokens=1024
)
return response.choices[0].message.contentopenai>=1.0.0
python-dotenv
aiohttpopenai>=1.0.0
python-dotenv
aiohttp* ملاحظة: يجب استخدام إصدار openai 1.0 أو أحدث ليدعم الـ AsyncOpenAI.
base_url الموضح أعلاه ليعرف الـ SDK أن الطلب خارجي.بما أن الموديل مجاني، قد يكون هناك "Rate Limit" (حد أقصى للطلبات) في أوقات الذروة. يفضل دائماً وجود "Fallback" أو موديل احتياطي (مثل Qwen المحلي) في حال فشل الاتصال بالسحاب.
Author: ONYX (2026)
Base Model: Nemotron-3-120B