|
767 | 767 | "claude-3-sonnet-20240229": { |
768 | 768 | "description": "Claude 3 Sonnet يوفر توازنًا مثاليًا بين الذكاء والسرعة لحمولات العمل المؤسسية. يقدم أقصى فائدة بسعر أقل، موثوق ومناسب للنشر على نطاق واسع." |
769 | 769 | }, |
| 770 | + "claude-haiku-4-5-20251001": { |
| 771 | + "description": "Claude Haiku 4.5 هو نموذج Haiku الأسرع والأذكى من Anthropic، يتميز بسرعة فائقة وقدرة متقدمة على التفكير المتسلسل." |
| 772 | + }, |
770 | 773 | "claude-opus-4-1-20250805": { |
771 | 774 | "description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic لمعالجة المهام المعقدة للغاية. يتميز بأداء ذكي وسلس وفهم عميق." |
772 | 775 | }, |
|
1148 | 1151 | "doubao-seed-1.6-flash": { |
1149 | 1152 | "description": "نموذج Doubao-Seed-1.6-flash للتفكير العميق متعدد الوسائط مع سرعة استدلال فائقة، حيث يحتاج TPOT فقط إلى 10 مللي ثانية؛ يدعم فهم النصوص والرؤية، وتفوق قدرات فهم النصوص على الجيل السابق lite، وفهم الرؤية يضاهي نماذج pro المنافسة. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 16k رمز." |
1150 | 1153 | }, |
| 1154 | + "doubao-seed-1.6-lite": { |
| 1155 | + "description": "Doubao-Seed-1.6-lite هو نموذج تفكير متعدد الوسائط جديد كليًا، يدعم ضبط مستوى الجهد الاستدلالي (reasoning effort) بأربعة أوضاع: الحد الأدنى، منخفض، متوسط، وعالٍ. يتميز بكفاءة عالية وتكلفة مناسبة، وهو الخيار الأمثل للمهام الشائعة، مع نافذة سياق تصل إلى 256 ألف." |
| 1156 | + }, |
1151 | 1157 | "doubao-seed-1.6-thinking": { |
1152 | 1158 | "description": "نموذج Doubao-Seed-1.6-thinking يعزز قدرات التفكير بشكل كبير، مقارنة بـ Doubao-1.5-thinking-pro، مع تحسينات إضافية في القدرات الأساسية مثل البرمجة والرياضيات والاستدلال المنطقي، ويدعم الفهم البصري. يدعم نافذة سياق بحجم 256k وطول إخراج يصل إلى 16k رمز." |
1153 | 1159 | }, |
|
1541 | 1547 | "glm-zero-preview": { |
1542 | 1548 | "description": "يمتلك GLM-Zero-Preview قدرة قوية على الاستدلال المعقد، ويظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، والرياضيات، والبرمجة." |
1543 | 1549 | }, |
1544 | | - "glm4.6:355b": { |
1545 | | - "description": "نموذج GLM-4.6 (355B) الرائد الأحدث من Zhipu يتفوق بشكل شامل على الجيل السابق في الترميز المتقدم، ومعالجة النصوص الطويلة، والاستدلال، وقدرات الوكلاء الذكيين، لا سيما في مجال البرمجة حيث يتماشى مع Claude Sonnet 4، ليصبح من أفضل نماذج الترميز في الصين." |
1546 | | - }, |
1547 | 1550 | "google/gemini-2.0-flash": { |
1548 | 1551 | "description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي وتحسينات تشمل سرعة فائقة، استخدام أدوات مدمجة، توليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز." |
1549 | 1552 | }, |
|
1934 | 1937 | "inception/mercury-coder-small": { |
1935 | 1938 | "description": "Mercury Coder Small هو الخيار المثالي لمهام توليد الكود، وتصحيح الأخطاء، وإعادة الهيكلة، مع أدنى تأخير." |
1936 | 1939 | }, |
| 1940 | + "inclusionAI/Ling-1T": { |
| 1941 | + "description": "Ling-1T هو أول نموذج رائد من سلسلة \"Ling 2.0\" غير المعتمد على التفكير، يحتوي على تريليون معلمة إجمالية و50 مليار معلمة نشطة لكل رمز. تم بناؤه على بنية Ling 2.0، ويهدف إلى تجاوز حدود الاستدلال الفعال والإدراك القابل للتوسع. تم تدريب Ling-1T-base على أكثر من 200 تريليون رمز عالي الجودة وغني بالاستدلال." |
| 1942 | + }, |
1937 | 1943 | "inclusionAI/Ling-flash-2.0": { |
1938 | 1944 | "description": "Ling-flash-2.0 هو النموذج الثالث في سلسلة بنية Ling 2.0 التي أصدرها فريق Bailing في مجموعة Ant. هو نموذج خبراء مختلط (MoE) بحجم إجمالي 100 مليار معلمة، لكنه ينشط فقط 6.1 مليار معلمة لكل رمز (غير متضمنة تمثيلات الكلمات 4.8 مليار). كنموذج خفيف الوزن، أظهر Ling-flash-2.0 أداءً يضاهي أو يتفوق على نماذج كثيفة بحجم 40 مليار معلمة ونماذج MoE أكبر في عدة تقييمات موثوقة. يهدف النموذج إلى استكشاف مسارات عالية الكفاءة من خلال تصميم معماري واستراتيجيات تدريب متقدمة، في ظل القناعة بأن \"النموذج الكبير يعني معلمات كثيرة\"." |
1939 | 1945 | }, |
1940 | 1946 | "inclusionAI/Ling-mini-2.0": { |
1941 | 1947 | "description": "Ling-mini-2.0 هو نموذج لغة كبير صغير الحجم وعالي الأداء مبني على بنية MoE. يحتوي على 16 مليار معلمة إجمالية، لكنه ينشط فقط 1.4 مليار معلمة لكل رمز (غير متضمنة التضمين 789 مليون)، مما يحقق سرعة توليد عالية جدًا. بفضل تصميم MoE الفعال وبيانات تدريب ضخمة وعالية الجودة، رغم تنشيط معلمات قليلة، يظهر Ling-mini-2.0 أداءً متقدمًا في المهام اللاحقة يضاهي نماذج LLM كثيفة أقل من 10 مليارات معلمة ونماذج MoE أكبر." |
1942 | 1948 | }, |
| 1949 | + "inclusionAI/Ring-1T": { |
| 1950 | + "description": "Ring-1T هو نموذج تفكير مفتوح المصدر بحجم تريليون معلمة، أطلقه فريق Bailing. يعتمد على بنية Ling 2.0 ونموذج Ling-1T-base، ويحتوي على تريليون معلمة إجمالية و50 مليار معلمة نشطة، ويدعم نافذة سياق تصل إلى 128 ألف. تم تحسينه من خلال تعلم التعزيز القابل للتحقق على نطاق واسع." |
| 1951 | + }, |
1943 | 1952 | "inclusionAI/Ring-flash-2.0": { |
1944 | 1953 | "description": "Ring-flash-2.0 هو نموذج تفكير عالي الأداء محسّن بعمق بناءً على Ling-flash-2.0-base. يستخدم بنية خبراء مختلط (MoE) بحجم إجمالي 100 مليار معلمة، لكنه ينشط فقط 6.1 مليار معلمة في كل استدلال. يحل النموذج من خلال خوارزمية icepop المبتكرة مشكلة عدم استقرار نماذج MoE الكبيرة في تدريب التعلم المعزز (RL)، مما يسمح بتحسين مستمر لقدرات الاستدلال المعقدة خلال التدريب طويل الأمد. حقق Ring-flash-2.0 تقدمًا ملحوظًا في مسابقات الرياضيات، توليد الشيفرة، والاستدلال المنطقي، متفوقًا على أفضل النماذج الكثيفة التي تقل عن 40 مليار معلمة، وقريبًا من نماذج MoE مفتوحة المصدر الأكبر ونماذج التفكير عالية الأداء المغلقة المصدر. رغم تركيزه على الاستدلال المعقد، يظهر أداءً ممتازًا في مهام الكتابة الإبداعية. بالإضافة إلى ذلك، وبفضل تصميمه المعماري الفعال، يوفر Ring-flash-2.0 أداءً قويًا مع استدلال عالي السرعة، مما يقلل بشكل كبير من تكلفة نشر نماذج التفكير في بيئات ذات حمل عالٍ." |
1945 | 1954 | }, |
|
2036 | 2045 | "llama-3.3-instruct": { |
2037 | 2046 | "description": "تم تحسين نموذج Llama 3.3 المعدل للتعليمات خصيصًا لسيناريوهات المحادثة، حيث تفوق على العديد من نماذج الدردشة مفتوحة المصدر الحالية في اختبارات المعايير الصناعية الشائعة." |
2038 | 2047 | }, |
2039 | | - "llama-4-maverick-17b-128e-instruct": { |
2040 | | - "description": "Llama 4 Maverick: نموذج عالي الأداء من سلسلة Llama، مناسب لمهام الاستدلال المتقدم، حل المشكلات المعقدة، وتنفيذ التعليمات." |
2041 | | - }, |
2042 | 2048 | "llama-4-scout-17b-16e-instruct": { |
2043 | 2049 | "description": "Llama 4 Scout: نموذج عالي الأداء من سلسلة Llama، مثالي للسيناريوهات التي تتطلب إنتاجية عالية وزمن استجابة منخفض." |
2044 | 2050 | }, |
|
2906 | 2912 | "qwen3-8b": { |
2907 | 2913 | "description": "Qwen3 هو نموذج جديد من الجيل التالي مع تحسينات كبيرة في القدرات، حيث يصل إلى مستويات رائدة في الصناعة في الاستدلال، والعموم، والوكلاء، واللغات المتعددة، ويدعم التبديل بين أنماط التفكير." |
2908 | 2914 | }, |
| 2915 | + "qwen3-coder-30b-a3b-instruct": { |
| 2916 | + "description": "النسخة مفتوحة المصدر من نموذج Qwen3 للبرمجة. النموذج الأحدث qwen3-coder-30b-a3b-instruct مبني على Qwen3، ويتميز بقدرات قوية كوكيل برمجي، بارع في استخدام الأدوات والتفاعل مع البيئات، ويجمع بين مهارات البرمجة الذاتية والقدرات العامة." |
| 2917 | + }, |
2909 | 2918 | "qwen3-coder-480b-a35b-instruct": { |
2910 | 2919 | "description": "نسخة مفتوحة المصدر من نموذج كود Tongyi Qianwen. أحدث نموذج qwen3-coder-480b-a35b-instruct مبني على Qwen3 لتوليد الكود، يتمتع بقدرات قوية كوكيل برمجي، بارع في استدعاء الأدوات والتفاعل مع البيئة، قادر على البرمجة الذاتية مع أداء برمجي ممتاز وقدرات عامة." |
2911 | 2920 | }, |
|
2927 | 2936 | "qwen3-next-80b-a3b-thinking": { |
2928 | 2937 | "description": "نموذج مفتوح المصدر من الجيل الجديد لوضع التفكير مبني على Qwen3، يتميز بتحسين في الالتزام بالتعليمات مقارنة بالإصدار السابق (Tongyi Qianwen 3-235B-A22B-Thinking-2507)، مع ردود ملخصة وأكثر إيجازًا من النموذج." |
2929 | 2938 | }, |
| 2939 | + "qwen3-omni-flash": { |
| 2940 | + "description": "نموذج Qwen-Omni قادر على استقبال مدخلات متعددة الوسائط مثل النصوص، الصور، الصوت، والفيديو، ويولّد ردودًا على شكل نص أو صوت. يوفر أصواتًا بشرية متعددة، ويدعم إخراج الصوت بعدة لغات ولهجات، ويمكن استخدامه في مجالات مثل إنشاء النصوص، التعرف البصري، والمساعدات الصوتية." |
| 2941 | + }, |
2930 | 2942 | "qwen3-vl-235b-a22b-instruct": { |
2931 | | - "description": "Qwen3 VL 235B A22B Instruct هو نموذج متعدد الوسائط أطلقته Tongyi Qianwen، يدعم الفهم البصري والاستدلال." |
| 2943 | + "description": "Qwen3 VL 235B A22B في وضع غير التفكير (Instruct)، مصمم لسيناريوهات الأوامر غير المعتمدة على التفكير، مع الحفاظ على قدرات قوية في الفهم البصري." |
2932 | 2944 | }, |
2933 | 2945 | "qwen3-vl-235b-a22b-thinking": { |
2934 | | - "description": "Qwen3 VL 235B A22B Thinking هو نموذج استدلال متعدد الوسائط أطلقته Tongyi Qianwen، يدعم الفهم البصري والاستدلال." |
| 2946 | + "description": "Qwen3 VL 235B A22B في وضع التفكير (نسخة مفتوحة المصدر)، مخصص للمهام المعقدة التي تتطلب استدلالًا عاليًا وفهمًا لمقاطع الفيديو الطويلة، ويقدم قدرات رائدة في الاستدلال البصري والنصي." |
| 2947 | + }, |
| 2948 | + "qwen3-vl-30b-a3b-instruct": { |
| 2949 | + "description": "Qwen3 VL 30B في وضع غير التفكير (Instruct)، موجه لسيناريوهات متابعة الأوامر العامة، مع الحفاظ على مستوى عالٍ من الفهم والتوليد متعدد الوسائط." |
| 2950 | + }, |
| 2951 | + "qwen3-vl-30b-a3b-thinking": { |
| 2952 | + "description": "Qwen-VL (نسخة مفتوحة المصدر) يوفر قدرات في الفهم البصري وتوليد النصوص، ويدعم التفاعل الذكي، الترميز البصري، الإدراك المكاني، فهم الفيديوهات الطويلة والتفكير العميق، مع دعم قوي للتعرف على النصوص المتقدمة وتعدد اللغات في البيئات المعقدة." |
| 2953 | + }, |
| 2954 | + "qwen3-vl-8b-instruct": { |
| 2955 | + "description": "Qwen3 VL 8B في وضع غير التفكير (Instruct)، مناسب لمهام التوليد والتعرف متعدد الوسائط الروتينية." |
| 2956 | + }, |
| 2957 | + "qwen3-vl-8b-thinking": { |
| 2958 | + "description": "Qwen3 VL 8B في وضع التفكير، مخصص لسيناريوهات الاستدلال والتفاعل متعدد الوسائط الخفيفة، مع الحفاظ على قدرة فهم السياق الطويل." |
| 2959 | + }, |
| 2960 | + "qwen3-vl-flash": { |
| 2961 | + "description": "Qwen3 VL Flash: نسخة خفيفة وسريعة للاستدلال، مناسبة للسيناريوهات الحساسة للزمن أو التي تتطلب معالجة عدد كبير من الطلبات." |
2935 | 2962 | }, |
2936 | 2963 | "qwen3-vl-plus": { |
2937 | 2964 | "description": "Tongyi Qianwen VL هو نموذج توليد نصوص يمتلك قدرات فهم بصرية (صور)، لا يقتصر على التعرف الضوئي على الحروف (OCR)، بل يمكنه أيضًا التلخيص والاستدلال، مثل استخراج خصائص من صور المنتجات، وحل المسائل بناءً على صور التمارين." |
|
0 commit comments