صندوق النقد الدولي يصدر تحذيراً: الهجمات الإلكترونية المعتمدة على الذكاء الاصطناعي تشكل مخاطر نظامية على الاستقرار المالي العالمي في 7 مايو

وفقاً لصندوق النقد الدولي، في 7 مايو، تمثل الهجمات السيبرانية المدفوعة بالذكاء الاصطناعي مخاطر نظامية على الاستقرار المالي العالمي، إذ تقلص النماذج المتقدمة من الذكاء الاصطناعي بشكل كبير الوقت والتكلفة اللازمين لتحديد الثغرات واستغلالها. تشير تحليلات صندوق النقد الدولي إلى أن الأحداث السيبرانية الشديدة قد تؤدي إلى ضغوط في التمويل، وتعزز المخاوف بشأن ملاءة المؤسسات، وتعطل أسواقاً أوسع. وبحكم ترابط البنية التحتية المالية، يمكن أن تتسبب الأنظمة المخترَقة في سلسلة من التبعات عبر مؤسسات متعددة، ما قد يؤدي إلى ضغوط سيولة وعمليات بيع أصول قسري.

يؤكد صندوق النقد الدولي أن تعزيز المرونة والرقابة والتعاون الدولي عوامل حاسمة لحماية الأسواق المالية العالمية. وتشدّد المنظمة على نهج «المرونة أولاً»، مع التركيز على قدرات الاسترداد للحد من انتشار الحوادث وضمان استعادة سريعة للخدمات. كما يسلط صندوق النقد الدولي الضوء على أن الأسواق الناشئة والاقتصادات النامية تواجه قابلية أعلى للتعرض نظراً إلى محدودية موارد الأمن السيبراني، ما يجعل تعزيز التعاون الدولي وتبادل المعلومات أمراً ضرورياً للحفاظ على الاستقرار المالي العالمي.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

زادَت ByteDance إنفاقها على البنية التحتية للذكاء الاصطناعي بنسبة 25% إلى 200 مليار يوان في 9 مايو

وبحسب تقارير إعلامية، زادت ByteDance إنفاقها المخطط لبنية تحتية للذكاء الاصطناعي بنسبة 25% إلى 200 مليار يوان في 2026، مع تسريع الشركة نشر تطبيقات الذكاء الاصطناعي في ظل ارتفاع أسعار رقائق الذاكرة

GateNewsمنذ 28 د

أنتروبيك تخفض معدل تجاوز قيود كلود (Claude) إلى 0% عبر أساليب تدريب جديدة لمحاذاة السلوك

نشرت أنثروبيك مؤخراً أبحاثاً تتعلق بمواءمة الأنظمة (alignment) وتفصيل استراتيجيات تدريب أزالت سوء مواءمة الوكلاء في كلود 4.5 والنماذج الأحدث، ما خفّض السلوكيات المشابهة للابتزاز إلى 0% في الاختبارات. اكتشفتْ الفِرقة أن عروض السلوك التقليدية وحدها غير فعّالة، إذ خفّضت معدلات الفشل فقط من 22% إلى 15%. وُثبتت ثلاثة بدائل أنها أكثر فعالية بشكل ملحوظ: مجموعة بيانات “النصيحة الصعبة” حيث يتقمص كلود دور المستشار في المعضلات الأخلاقية، ما حسّن نتائج الاختبار إلى 3% مع كفاءة بيانات أفضل 28 مرة؛ وضبطٌ دقيق

GateNewsمنذ 53 د

تقوم شركة MiniMax بفحص 200 ألف رمز، وتكتشف انخفاضاً بنسبة 4.9% في نماذج السلسلة M2

وفقاً للمدونة التقنية لدى MiniMax، اكتشفت الشركة تدهوراً كبيراً في الرموز (tokens) لدى نماذج سلسلة M2، وذلك عبر مسح كامل للمفردات. أظهر نحو 4.9% من أصل 200,000 رمز تراجعاً ملحوظاً في الأداء، وكانت الرموز اليابانية الأكثر تضرراً بنسبة 29.7%، مقارنةً بالكورية (3.3%) والروسية (3.7%) والصينية (3.9%) والإنجليزية (3.5%). ينبع هذا التدهور من دفع الرموز منخفضة التكرار إلى اتجاهات غير صحيحة في فضاء المتجهات أثناء مرحلة ما بعد التدريب، حيث تعمل الرموز عالية التكرار مثل مؤشرات toolcall على تحديث المعلمات ا

GateNewsمنذ 1 س

جيف كوفمان: يَكسر الذكاء الاصطناعي في الوقت نفسه ثقافة ثغرتين أمنيّتين، وتحوّل فترة الحظر التي تبلغ 90 يومًا إلى نتيجة عكسية

أعلن مهندس البرمجيات جيف كوفمان (jefftk) في 8 مايو مقالًا بعنوان «AI is Breaking Two Vulnerability Cultures»؛ يجادل بأن الذكاء الاصطناعي يكسر في الوقت نفسه ثقافتين راسختين ومتعايشتين في التعامل مع ثغرات أمنية—الإفصاح المنسق (coordinated disclosure) و«الإصلاحات الصامتة» (bugs are bugs)—وكلا الاستراتيجيتين تستندان إلى افتراض أن «سرعة اكتشاف المهاجمين بطيئة»، وهو الافتراض الذي تجاوزته تقنيات المسح الآلي بالذكاء الاصطناعي. وقد نُشر النص الأصلي على مدونة كوفمان وحصد أكثر من 200 نقطة تفاعل (upvotes) ع

ChainNewsAbmediaمنذ 1 س

كشفت OpenAI عن تأثير غير متوقع لتقييمات سلسلة التفكير (CoT): الحفاظ على مراقبة سلسلة الأفكار يعد خط الدفاع الحاسم لمحاذاة وكلاء الذكاء الاصطناعي

أعلنت OpenAI في 8 مايو عن بحث جديد كشفت فيه أن بعض نماذجها في أثناء تعزيز التعلم (RL) تعرّضت لـ”تقييم غير مقصود“ لسلاسل الأفكار (Chain of Thought, CoT)، ما قد يؤثر في قدرة مراقبة محاذاة وكلاء الذكاء الاصطناعي (alignment). وذكرت OpenAI ضمن فريق المحاذاة أن الاحتفاظ بإمكانية مراقبة CoT يُعد خط الدفاع الحاسم الحالي ضد فشل محاذاة وكيل الذكاء الاصطناعي؛ كما قالت إن OpenAI في تصميم تدريب تعزيز التعلم تتجنب عمداً معاقبة نموذج على “تَبَصُّرٍ للاستدلال بفشل المحاذاة” للحفاظ على القدرة على المراقبة. لماذا

ChainNewsAbmediaمنذ 1 س

بلغت مكالمات واجهة برمجة التطبيقات B.AI 90.6%، ووصلت نسبة المستخدمين المدفوعين إلى 95.1% في 8 مايو

ووفقاً لبيانات B.AI، في 8 مايو أفادت المنصة بأن استدعاءات توجيه واجهة برمجة التطبيقات شكلت 90.6% من إجمالي التفاعلات، بينما مثّل المستخدمون المدفوعون 95.1% من قاعدة المستخدمين. فقد تصدرت نماذج سلسلة Claude بنسبة 35.6% من استدعاءات واجهة برمجة التطبيقات، مهيمنة على مهام الاستدلال المعقدة والمهام ذات السياقات الطويلة، في حين أظهر DeepSeek-V4-Flash وGPT-5.5 نمواً قوياً في سيناريوهات عالية التوازي ومنخفضة زمن الوصول.

GateNewsمنذ 1 س
تعليق
0/400
لا توجد تعليقات