زميل ذكي ولكن لا يُحاسب! - شبكة جدة الإخبارية

النشرة (لبنان) 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
زميل ذكي ولكن لا يُحاسب! - شبكة جدة الإخبارية, اليوم الأربعاء 25 يونيو 2025 09:10 صباحاً

لطالما انقسم الأمن السيبراني إلى شقين واضحين: الحماية من "الخارج"، حيث تُوضع الجدران التلقائية لمنع القراصنة أو المستخدمين من تجاوز الحدود، والحماية من "الداخل"، حيث تُراقب صلاحيات الموظفين بدقة، وتُطبق آليات مثل مراجعة الكود، والتوقيع المشترك على العمليات الحساسة، ضمن نظام يستند إلى الثقة والمحاسبة.

 

لكن في السنوات الأخيرة، برز "زميل جديد" في بيئات العمل: الذكاء الاصطناعي. إنّه ليس مجرد أداة خلفية، بل مساعد مباشر في البرمجة، التحليل، واتخاذ القرار. ومع توسّع دوره، أصبحت له صلاحيات واسعة في داخل الأنظمة، مشابهة –وأحياناً أوسع– من تلك التي يتمتع بها البشر المخوّلون.

المشكلة أن الذكاء الاصطناعي الذي تستخدمه الشركات في أعمالها ليس كأيّ موظف. هو لا يملك وعيًا ليدرك ما يفعله، ولا نية ليتعمّد الخطأ، لكنه في الوقت نفسه قد يتسبّب بأضرار كبيرة من دون أن يكون هناك طريقة واضحة لمحاسبته. ورغم أن هذه الأنظمة تعمل من داخل المؤسسة، وتملك صلاحيات واسعة، فإن الكثير من الجهات ما زالت تتعامل معها وكأنها أدوات خارجية، تُحاصر ببعض القيود التقنية، من دون أن تُراقب فعلياً كما يُراقب الموظف الحقيقي.

 

 

أما ما يجعل الأمر أكثر تعقيداً هو أن الذكاء الاصطناعي يجمع ما بين نوعين من التهديدات في آنٍ واحد. فهو من جهة يملك صلاحيات كبيرة داخل النظام، كما يفعل الموظفون التقنيون، ومن جهة أخرى قد يتصرف بطريقة غير متوقّعة أو يكرّر نفس التصرف الخاطئ بسرعة، كما يفعل المخترقون الخارجيون. وهذا يعني أننا نتعامل مع كيان رقمي يصعب ضبطه، لأنه لا يشبه خطرًا واحدًا، بل يختلط فيه خطر الداخل مع الخارج.

 

والأصعب من ذلك أن الفرق الأمنية تفتقر -في أغلب الأحيان- إلى أدوات واضحة للتعامل معه كجهة "داخلية". لا توجد مراجعة بشريّة مسبقة لما يفعله الذكاء الاصطناعي دائماً، ولا توجد مساءلة مباشرة عند حدوث خطأ.

 

لقد دخلنا مرحلة جديدة، حيث لم يعد الذكاء الاصطناعي مجرد تقنية في الخلفية، بل طرفًا فاعلًا في القرار والتنفيذ.
زميلٌ ذكي في فريق العمل… لكنه لا يُحاسب.

إخترنا لك

أخبار ذات صلة

0 تعليق