هل نفهم عقل الذكاء الاصطناعى؟ دعوة لمراقبة “أفكار” النماذج الذكية

هل نفهم عقل الذكاء الاصطناعى؟ دعوة لمراقبة “أفكار” النماذج الذكية

في دعوة جماعية نادرة، طالب عدد من كبار الباحثين في مجال الذكاء الاصطناعي من مؤسسات مثل OpenAI وGoogle DeepMind وAnthropic، إلى جانب ائتلاف واسع من الشركات والمنظمات غير الربحية، بضرورة تكثيف الجهود العلمية لمراقبة ما يُعرف بـ”أفكار” نماذج الذكاء الاصطناعي المتقدمة، وذلك عبر ورقة موقف بحثية نُشرت مؤخرا.

تتمثل هذه “الأفكار” في ما يُعرف بسلاسل التفكير (Chain-of-Thought أو CoT)، وهي عملية يقوم فيها النموذج باستعراض خطوات تفكيره خارجيًا أثناء حل المسائل — مشابهة لكيفية استخدام الإنسان لورقة خارجية لحل مسألة رياضية، وتُعد هذه السلاسل سمة جوهرية في نماذج التفكير المتقدمة مثل o3 من OpenAI وR1 من DeepSeek، والتي تشكّل اللبنة الأساسية لتطوير عملاء ذكاء اصطناعي أكثر ذكاءً واستقلالًا.

وجاء في الورقة البحثية:

“توفر مراقبة سلاسل التفكير فرصة نادرة لفهم كيفية اتخاذ نماذج الذكاء الاصطناعي قراراتها، ما يجعلها إضافة مهمة لإجراءات الأمان في النماذج المتقدمة، لكن لا يوجد ما يضمن استمرار هذا المستوى من الشفافية.”

ودعت الورقة المجتمع البحثي والمطورين إلى دراسة العوامل التي تُعزز أو تُضعف قدرة هذه النماذج على إظهار سلاسل تفكيرها، محذرة من أن أي تدخلات غير مدروسة قد تضرّ بهذه الشفافية أو تُقوّض موثوقية التفسير.

وطالب الباحثون الشركات الكبرى بمتابعة إمكانية مراقبة سلاسل التفكير بشكل منتظم، والعمل على إدراجها كجزء من أدوات الأمان المستقبلية، ووقع على الورقة عدد من الأسماء البارزة في هذا المجال، من بينهم:
• مارك تشين، مدير الأبحاث في OpenAI
• إيلْيا سوتسكيفر، المدير التنفيذي لـ Safe Superintelligence
• جيفري هينتون، الحائز على نوبل وأحد مؤسسي علم الشبكات العصبية
• شاين ليغ، المؤسس المشارك في Google DeepMind
• دان هندريكس، مستشار السلامة في xAI
• جون شولمان، الشريك المؤسس لـ Thinking Machines

وذكر الباحث بوين بيكر من OpenAI، أحد المشاركين في إعداد الورقة: “نحن في لحظة مفصلية مع ظهور تقنيات التفكير المتسلسل، وإذا لم نُسلّط الضوء عليها الآن، فقد تُهمش لاحقًا رغم قيمتها الكبيرة.”

وكانت OpenAI قد كشفت عن أول نموذج تفكير AI يحمل اسم o1 في سبتمبر 2024، وتبعته شركات أخرى مثل Google DeepMind وxAI وAnthropic بإصدارات متقدمة خلال الأشهر التالية، ورغم الأداء القوي لهذه النماذج، لا تزال طريقة تفكيرها الدقيقة غير مفهومة بالكامل.

وتُعد شركة Anthropic من أبرز الجهات العاملة على تفسير كيفية عمل النماذج الذكية، وهو مجال يُعرف باسم تفسير الذكاء الاصطناعي (Interpretability)، وأعلن رئيسها التنفيذي داريو أمودي في وقت سابق هذا العام عن هدف طموح لفك شيفرة “الصندوق الأسود” للذكاء الاصطناعي بحلول عام 2027، داعيًا OpenAI وDeepMind للانضمام إلى هذا المسار.

وفي حين تشير بعض أبحاث Anthropic إلى أن سلاسل التفكير قد لا تكون دائمًا مؤشرًا دقيقًا لكيفية وصول النموذج إلى نتيجة، فإن باحثين من OpenAI يرون فيها أداة واعدة لمراقبة مدى التوافق بين الذكاء الاصطناعي وأهدافه المفترضة، بما يعزز الأمان والشفافية مستقبلًا.

وتسعى هذه الورقة البحثية إلى تسليط الضوء على هذا المجال الناشئ، وجذب المزيد من الاستثمارات والأبحاث نحوه، في وقت تشهد فيه صناعة الذكاء الاصطناعي سباقًا محمومًا بين عمالقة التكنولوجيا، واستقطابًا للمواهب بملايين الدولارات.


المصدر: اليوم السابع