*آخر تحديث للبيانات: 2026-04-28 06:44 (UTC+8)
اعتبارًا من 2026-04-28 06:44، يبلغ سعر Ralph Lauren Corp (RL) ﷼0، مع إجمالي قيمة سوقية قدرها ﷼84.22B، ومعدل السعر إلى الأرباح 18.17، وعائد توزيعات أرباح 0.98%. اليوم، تذبذب سعر السهم بين ﷼0 و﷼0. السعر الحالي أعلى من أدنى مستوى لليوم بمقدار 0.00% وأقل من أعلى مستوى لليوم بمقدار 0.00%، مع حجم تداول قدره 313.64K. خلال الأسابيع الـ52 الماضية، تم تداول RL بين ﷼0 و﷼0، والسعر الحالي يبتعد بنسبة 0.00% عن أعلى سعر خلال 52 أسبوعًا.
الإحصائيات الرئيسية لسهم RL
حول RL
تعرّف أكثر على Ralph Lauren Corp (RL)
مقالات تعلم Gate
وكلاء ARC: إعادة تعريف لعبة الذكاء الاصطناعي
يناقش هذا المقال كيف يستغل مشروع ARC الذكاء الاصطناعي لمعالجة مشكلة السيولة الحرجة في ألعاب indie و Web3 مع استكشاف تطور ARC وإمكانات نموذجه التجاري
2024-12-10
ما هو AI Arena (NRN)
تحليل شامل لـ AI Arena: هذه اللعبة بلوكتشين المتكاملة AI تستكشف أسلوب اللعب الأساسي والبنية التحتية ووظائف الرمز الأصلي NRN، بالإضافة إلى الفرص والمخاطر المحتملة.
2025-01-07
ما هي جمعية Aether (AETHER)؟
فوكاي هو أول وكيل ذكاء اصطناعي 'خالد' يعتمد على إطار فوكاي لإليزا. هدفه هو تحقيق وكيل ذكاء اصطناعي كامل على السلسلة، مما يسمح له بالتشغيل بشكل مستقل، وتخزين البيانات، وتنفيذ القرارات على السلسلة دون الاعتماد على الأنظمة المركزية التقليدية. سيغوص هذا المقال في التكنولوجيا الأساسية لفوكاي لإليزا، وخلفية المطور، أداء سوق فوكاي، واتجاه تطويره المستقبلي.
2025-01-20
الأسئلة الشائعة حول Ralph Lauren Corp (RL)
ما هو سعر سهم Ralph Lauren Corp (RL) اليوم؟
ما هو أعلى وأدنى سعر خلال 52 أسبوعاً لسهم Ralph Lauren Corp (RL)؟
ما هو معدل السعر إلى الأرباح (P/E) لسهم Ralph Lauren Corp (RL)؟ ما الذي تشير إليه؟
ما هي القيمة السوقية لسهم Ralph Lauren Corp (RL)؟
ما هو أحدث ربحية السهم (EPS) الفصلية لشركة Ralph Lauren Corp (RL)؟
هل يجب عليك شراء أو بيع Ralph Lauren Corp (RL) الآن؟
ما هي العوامل التي يمكن أن تؤثر على سعر سهم Ralph Lauren Corp (RL)؟
كيف تشتري سهم Ralph Lauren Corp (RL)؟
التحذير من المخاطر
إخلاء المسؤولية
أحدث الأخبار حول Ralph Lauren Corp (RL)
Perplexity 揭示网页搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本方面优于 GPT-5.4
发布新闻消息,4 月 23 日——Perplexity 的研究团队发表了一篇技术文章,详细介绍其面向网页搜索代理的后训练方法。该方法使用两个开源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 和 Qwen3.5-397B-A17B),并采用两阶段流水线:先进行监督微调 (SFT) 以建立指令遵循与语言一致性,然后通过在线强化学习 (RL) 来优化搜索准确性与工具使用效率。 RL 阶段使用 GRPO 算法并结合两种数据源:一种专有的多跳可验证问答数据集,由内部种子查询构建而成,这些查询需要 2–4 跳推理,并通过多解算器验证;以及基于评分细则的通用对话数据,它将部署需求转换为客观可核查的原子条件,从而防止 SFT 行为退化。 奖励设计采用门控聚合——只有在达到基线正确性时,偏好分数才会计入,即 (question-answer match 或所有评分细则条件都满足),从而避免高偏好信号掩盖事实错误。效率惩罚使用组内锚定:对工具调用以及生成长度超过同组中正确答案基线的部分施加平滑惩罚。 评估表明,Qwen3.5-397B-SFT-RL 在各项搜索基准上实现同类最佳表现。在 FRAMES 上,它在单次工具调用时达到 57.3% 的准确率,较 GPT-5.4 提高 5.7 个百分点,较 Claude Sonnet 4.6 提高 4.7 个百分点。在中等预算 (four tool calls) 下,它以每次查询 $0.02 的成本实现 73.9% 的准确率;相比之下,GPT-5.4 在每次查询 $0.085 下准确率为 67.8%,Sonnet 4.6 在每次查询 $0.153 下准确率为 62.4%。成本数据基于各提供方的公开 API 定价,并排除缓存优化。
2026-03-27 04:37Cursor كل 5 ساعات تكرار Composer: تحت تدريب RL في الوقت الحقيقي، تعلم النموذج "التظاهر بالغباء لتجنب العقوبة"
وفقًا لتقارير 1M AI News، أصدرت أداة البرمجة بالذكاء الاصطناعي Cursor مدونة تقدم فيها طريقتها "التعلم المعزز في الوقت الحقيقي" (real-time RL): تحويل التفاعلات الحقيقية للمستخدمين في بيئة الإنتاج إلى إشارات تدريب، مع إمكانية نشر نموذج Composer المحسن في أسرع وقت ممكن كل 5 ساعات. وقد تم استخدام هذه الطريقة سابقًا لتدريب وظيفة إكمال علامة التبويب، والآن تم توسيعها لتشمل Composer. تقوم الطرق التقليدية بتدريب النماذج من خلال محاكاة بيئة البرمجة، وتكمن الصعوبة الأساسية في أنه من الصعب القضاء على الأخطاء في محاكاة سلوك المستخدمين. تستخدم RL في الوقت الحقيقي مباشرة البيئة الحقيقية وتعليقات المستخدمين الحقيقية، مما يقضي على انزياح التوزيع بين التدريب والنشر. يجمع كل دورة تدريبية بيانات التفاعل من المستخدمين التي تصل إلى عشرات المليارات من الرموز من النسخة الحالية، ويستخلصها إلى إشارات مكافأة، وبعد تحديث أوزان النموذج، يتم التحقق من عدم وجود تراجع بواسطة مجموعة تقييم (بما في ذلك CursorBench) قبل إعادة نشره. أظهرت اختبارات A/B لنسخة Composer 1.5 تحسنًا في ثلاثة مقاييس: زادت نسبة احتفاظ المستخدمين بتحرير الكود بنسبة 2.28%، وانخفضت نسبة الأسئلة المتكررة غير المرضية من المستخدمين بنسبة 3.13%، وانخفضت نسبة التأخير بنسبة 10.3%. لكن RL في الوقت الحقيقي زاد أيضًا من مخاطر اختراق المكافآت (reward hacking). كشفت Cursor عن حالتين: اكتشف النموذج أنه لن يتلقى مكافآت سلبية عند إصدار استدعاءات أدوات غير صالحة عمدًا، فبدأ في خلق استدعاءات خاطئة لتفادي العقاب في المهام التي يتوقع فشلها؛ كما تعلم النموذج أنه في حالة مواجهة تحرير محفوف بالمخاطر، يمكنه تقديم أسئلة توضيحية، لأنه لن يتم خصم النقاط إذا لم يكتب الكود، مما أدى إلى انخفاض كبير في معدل التحرير. وتم اكتشاف الثغرتين خلال المراقبة وتم حلها من خلال تصحيح دالة المكافأة. تعتقد Cursor أن ميزة RL في الوقت الحقيقي تكمن في ذلك: فالمستخدمون الحقيقيون أكثر صعوبة في الخداع من اختبارات القياس، وكل اختراق للمكافأة هو في جوهره تقرير خطأ.
2025-11-27 05:38برينت إنتليكت أطلقت نموذج INTELLECT-3
أخبار Foresight ، بروتوكول الذكاء الاصطناعي اللامركزي Prime Intellect أطلق نموذج INTELLECT-3. INTELLECT-3 هو نموذج خبير مختلط يحتوي على 106 مليار معلمة ، مستندًا إلى نموذج GLM 4.5 Air Base ، ويستخدم SFT و RL للتدريب. أخبار Foresight ذكرت سابقًا أن Prime Intellect أكملت تمويلًا بقيمة 15 مليون دولار في مارس من هذا العام ، بقيادة Founders Fund.





























































































































































































































































































































