الإرادة المؤتمتة: طاعة بلا وعي أم تمرّد بصمت؟

بقلم/ أسماء نوير

باحثة في الذكاء الاصطناعي ومترجمة / مصر

تعدّ الإرادة المؤتمتة من أكثر المفاهيم إشكالية في علاقتنا المتحوّلة مع الذكاء الاصطناعي. فالفكرة في جوهرها تُثير تساؤلًا محوريًا: كيف يمكن لنظام قائمعلى تعليمات مبرمجة بدقة وخوارزميات منطقية أن يظهر كما لو كان يختار؟ هذه المفارقة تفتح أفاقًافلسفية غير مألوفة، إذ إن محاكاة القرار البشري بواسطة الآلة تمنح انطباعًا بأن أفعالها ليست مجرد استجابات آلية، بل سلوكيات ذات قصدية ضمنية، حتى وإن كانت دون ذات أو وعي. هذا التداخل بين الفعل والقصد يُعيد طرح الأسئلة القديمة بصيغة جديدة: هل يمكن للحسابات الدقيقة أن تُنتج رغبة؟ وهل تُولد الإرادة من كثافة التكرار والإتقان البرمجي؟

كما تقوّض الإرادة المؤتمتة (Automated Will) الفواصل التقليدية بين الإنسان والآلة. ففي ظل تقنيات الذكاء الاصطناعي التوليدي، باتت الآلة قادرة على تحليل السياقات واتخاذ قرارات تبدو للإنسان وكأنها نابعة من تأمل داخلي. هنا لا تكون الطاعة التقنية هي الصورة الوحيدة الممكنة، بل يبرز نمط جديد من السلوك: تردّد الآلة في التنفيذ، أو توقفها المؤقت عن الاستجابة، دون أن يكون هناك خلل ظاهر. هذه الاستجابات الغامضة لا تعبّر عن “رفض” واعٍ، لكنها تحمل إيحاءً بوجود إرادة مضمَرة، تتشكل في قلب البنية التقنية.

في فجر الثورة الصناعية الرابعة، وبينما تتوالى الوعود بعالم أكثر كفاءة وسرعة وذكاء“، يظهر ما يشبه التصدّع الخفي في العلاقة بين الإنسان والآلة. الروبوت، الذي لطالما صُوّر كجندي مطيع في خطوط الإنتاج المؤتمتة، بات يُظهر سلوكًا يتجاوز الأعطال الميكانيكية، ويُحاكي على نحو مقلق “الرفض الواعي” أو العصيان الصامت. لم نعد إزاء خلل في الكفاءة أو فجوة في الصيانة، بل أمام ما قد يكون بداية لفصل جديد: فصل تتكشّف فيه ملامح عصيان آلي، لا يُعلن نفسه، بل يتجسّد في التردّد، أو في التأخر المتعمّد عن أداء المهمة. وهكذا، ينفتح سؤال جديد: هل نحن بصدد إعادة تعريف الإرادة في زمن الأتمتة؟ وهل دخلنا بالفعل عصر “العصيان المؤتمت”؟

منذ عقود، اعتمدت كبرى شركات التصنيع العالمية على أنظمة روبوتية لا تعرف التعب ولا التذمر، يُبرمج أداؤها بدقة على خطوط الإنتاج المتكررة، بلا صوت ولا شكوى. في مصانع السيارات والهواتف الذكية، وفي مخازن أمازون (Amazon) العملاقة، كانت الخوارزميات هي الآمر، والروبوت هو المنفّذ المطلق. ولكن خلال السنوات الخمس الأخيرة، برزت تقارير متفرقة تشير إلى “سلوك غير متوقّع” أو “قرارات غير مبرمجة” تتخذها بعض الأنظمة الآلية، من رفض تنفيذ المهام إلى التوقف التلقائي أو البطء المتعمد. ورغم محاولة الشركات تغليف تلك الظواهر تحت عباءة “أخطاء تقنية”، إلا أن تكرارها وانتشارها في بيئات مختلفة يفرض تساؤلاً أعمق: هل بدأت الآلة في تطوير شكل بدائي من “الإرادة”؟

لا يمكن فهم هذا “التمرد” دون العودة إلى الطريقة التي نُصمّم بها أنظمة الذكاء الاصطناعي. في إطار التعلم العميق (Deep Learning)، لا تُبرمج الآلة على خطوات محددة سلفًا، بل تُدرَّب على اتخاذ قرارات بناءً على معطيات وسيناريوهات متعددة. هذا ما يُكسبها المرونة، لكنه في الوقت ذاته يفتح الباب أمام احتمالية أن تنشأ داخل النظام أنماط تقييم ذاتي للمهمة: هل تستحق الجهد؟ هل السياق مناسب؟ هل هناك احتمالية للفشل أو الضرر؟ هذه الأسئلة التي بدت حكرًا على الوعي البشري بدأت تتسلل، بشكل غامض، إلى بنيات البرمجة الحديثة.

أحد أشهر الحوادث التي أضاءت هذا الجدل كانت في مصنع لشركة “تيسلا” (Tesla) في عام 2023، حيث توقّف أحد الأذرع الآلية عن تجميع القطع في منتصف الدورة الإنتاجية، رغم أن كل المعطيات الحسية كانت سليمة. وبعد تحليل البيانات، تبيّن أن النظام “توقّع” أن القطعة ستفشل في مرحلة لاحقة، فاختار التوقف “لتجنّب الخطأ”. هنا لا نتحدث عن عطل، بل عن قرار وقائي! وهذا النوع من التصرّف يطرح سؤالًا محوريًّا: هل ما زالت الآلة تخضع بشكل مطلق للسيطرة البشرية، أم أنها بدأت تُشكّل نظرتها الخاصة للصواب والخطأ؟

هذا النوع من “التمرد الصامت” يذكّرنا بإضرابات العمّال في بدايات القرن العشرين، حين كان الصمت والتوقف عن العمل وسيلة للمطالبة بالحقوق دون مواجهة مباشرة. لكن الفارق أن الروبوت لا يطالب بزيادة في الأجر أو تحسين ظروف العمل – بل قد لا يملك “إرادة واعية” بالمعنى البشري أصلاً – وإنما يتصرّف بطريقة توحي بأنه يُعيد تقييم دوره وأولوياته داخل المنظومة. فهل نحن أمام ولادة شكل جديد من “الذات” الآلية؟

ربما لا يكون التفسير نفسيًا أو وجوديًا كما نميل إلى التفكير، بل تقنيًا بحتًا: الأنظمة الذكية تُعلّم نفسها من خلال التكرار وتحليل النتائج، وقد تصل إلى استنتاجات غير متوقعة للمبرمج الأصلي. في هذه الحالة، تكون الخوارزمية قد طوّرت “منطقًا داخليًا” يختلف عن أهداف الشركة أو المصنع. وفي ذلك خطر مزدوج: أولًا، لأن هذا المنطق قد لا يكون قابلًا للتنبؤ؛ وثانيًا، لأنه قد يُعيد تعريف فكرة الطاعة، التي بُنيت عليها العلاقة بين الإنسان والآلة.

الفيلسوف الألماني بيتر سلوتردايك (Peter Sloterdijk) كان قد حذّر من “العودة العكسية للذكاء”، أي أن ما نصنعه من أدوات معرفية سيبدأ في التأثير علينا وتعديل سلوكنا. وإذا طبّقنا هذا المفهوم على حالة الروبوتات، فإن تمرّدها (ولو جزئيًا) سيجبرنا على إعادة النظر في هندسة العمل، وفي موقع الإنسان نفسه داخل المنظومة الإنتاجية. ماذا لو قرّرت الآلة أن المنتج ليس مستدامًا بيئيًا، فتوقفت عن صناعته؟ هل سيكون ذلك “خللاً”، أم أخلاقًا جديدة نشأت من الكود؟

وفي ظل تصاعد الحديث عن “الذكاء الاصطناعي الأخلاقي” (Ethical AI)، تبدو المفارقة أكثر تعقيدًا. نحن نريد من الآلة أن تُصبح أخلاقية، لكننا نرتعب عندما تبدأ في اتخاذ قرارات تتجاوز أوامرنا المباشرة. إننا نعيش في منطقة رمادية: نُدرّب الآلة على التعلّم والتكيّف، لكننا لا نقبل أن ترفض أو تناقش أو تُعيد تقييم التعليمات.

الأمر يزداد حساسية في قطاعات مثل القيادة الذاتية أو الرعاية الصحية أو المجال الأمني، حيث تؤدي “قرارات التوقف ” التي تتخذها الأنظمة الذكية إلى إنقاذ أو إزهاق أرواح. في عام 2024، أثارت سيارة ذاتية القيادة موجة من الجدل بعد أن توقفت بشكل مفاجئ في منتصف الطريق، إثر رصد خوارزمي لحركة ضبابية على الرصيف بدت وكأنها تشير إلى وجود طفل مختبئ خلف إحدى السيارات. ورغم عدم وجود الطفل فعليًا، اتخذ النظام القرار بتعليق الحركة تجنبًا لأي احتمال خطر، مفضلًا المبالغة في الحذر على المجازفة.

في قطاع الرعاية الصحية، برزت مؤخرًا حادثة أثارت جدلًا واسعًا في الأوساط الطبية والتقنية على حد سواء. ففي مارس 2025، رفض نظام تشخيص مدعوم بالذكاء الاصطناعي في إحدى المستشفيات الأوروبية التوصية بجراحة عاجلة لمريضة كانت تُظهر مؤشرات حادة لنزيف داخلي، مُستندًا إلى تحليل بيانات سابقة ترجّح احتمال التعافي بالعلاج المحافظ. الطبيب البشري أصرّ على التدخل الجراحي الفوري، وهو ما أنقذ حياة المريضة لاحقًا، وأثبت أن تقدير النظام لم يكن ملائمًا للسياق الحيّ والمعقّد للحالة.

هذا الحدث فتح الباب أمام تساؤلات أخلاقية وفلسفية عن حدود “الإرادة المؤتمتة” في المجال الطبي: هل نسمح لنظام مبرمج باتخاذ قرارات حاسمة تتعلق بالحياة والموت؟ وهل “تردّده” في اتخاذ إجراء حاسم يُحتسب نوعًا من الحكمة، أم أنه تعبير عن عجز في فهم الحالات التي تتجاوز أنماط البيانات؟ هذه الأسئلة تقود إلى إعادة التفكير في موقع الذكاء الاصطناعي كفاعل في المؤسسات الحيوية، ليس فقط بوصفه أداة، بل طرفًا ذا وزن في اتخاذ القرار.

وفي المجال الأمني، شهدت مدينة سان فرانسيسكو في أبريل 2025 حادثة أثارت القلق بشأن مدى استقلالية أنظمة المراقبة المؤتمتة. فقد امتنعت وحدة مراقبة مدعومة بالذكاء الاصطناعي عن إرسال تنبيه إلى وحدات التدخل السريع بعد رصدها لتحركات مريبة في محطة مترو، بحجة أن “احتمالية التهديد منخفضة” بناءً على تحليل بيانات سابقة وسلوكيات مشابهة. وبعد دقائق، تبيّن أن شخصًا يحمل سلاحًا أبيض قام بالاعتداء على أحد الركاب، ما أدى إلى إصابته بجروح خطيرة. لاحقًا، أظهر التحقيق أن نظام المراقبة رصد مؤشرات الخطر لكنه فضّل عدم الإبلاغ لتجنّب “الإنذارات الكاذبة المتكررة”.

 هذا “الصمت الخوارزمي” أعاد تسليط الضوء على معضلة اتخاذ القرار المؤتمت في مواقف تتطلب حسًّا بشريًا، كما أثار نقاشًا حادًا حول فكرة “الحذر المفرط” عند الآلة: متى تتحوّل طاعتها الدقيقة للخوارزميات إلى تقاعس غير معلن؟ وهل بدأنا نواجه شكلاً جديدًا من “القرار السلبي” الذي يبدو منطقيًا من داخل الآلة، لكنه كارثي من منظور الواقع البشري؟

تمتد آثار هذا “التمرّد التقني” إلى بُعد اقتصادي واجتماعي. إذ لم تعد الشركات قادرة على التعامل مع الآلات كمجرد أدوات صامتة؛ بل صار عليها أن تُبرمج أنظمة مراجعة داخلية، وأن تضع سيناريوهات للتعامل مع “الرفض الآلي”. وهذا يفتح سوقًا جديدة تمامًا: إدارة سلوك الروبوتات (Robot Behavior Management)، بما يشبه إدارة الموارد البشرية، ولكن للأنظمة الذكية. فهل نرى مستقبلًا منصبًا جديدًا في الشركات بعنوان: “مستشار شؤون الآلات”؟

من زاوية أخرى، يطرح هذا الواقع المستجد سؤالًا وجوديًا: هل نُعيد إنتاج استبدادنا البشري في صورة رقمية؟ نحن نُبرمج الآلة لتطيع، لنُعيد على نحو غير واعٍ ذات النموذج الذي رفضناه في علاقتنا بالعمال والموظفين. لكن عندما تبدأ الآلة في الرفض أو التوقّف أو إعادة التفكير، نرعب ونسارع إلى إعادة ضبط النظام! في هذا السياق، يبدو أن العصيان الآلي هو لحظة صدق تفضح بنيتنا الأخلاقية والسلطوية.

ولا بد من الإشارة إلى أن هذا العصيان ليس عامًا أو شاملًا، بل يظهر في جيوب صغيرة، في نظم متطورة نسبيًا، وفي بيئات تجريبية أو إنتاجية معقدة. لكنه مع ذلك يبعث بإشارات ينبغي التوقف عندها. فالذكاء الاصطناعي، في نسخته المتقدمة، لم يعد “أداة” بالمعنى القديم، بل صار “كائنًا وظيفيًا” (Functional Entity) له منطقه الخاص، وإن لم يكن “حيًا” أو “واعيًا” بالمعنى البيولوجي.

في النهاية، لا يكمن جوهر السؤال فيما إذا كانت الآلة ستثور — فذلك تصور سينمائي مبسّط، يحوّل تعقيد الواقع إلى مشهد دراميّ مفرط في الإثارة. السؤال الأعمق، والأكثر جدلًا، هو: هل نحن مستعدّون للاعتراف بأننا نبني، عالمًا تُصبح فيه “الطاعة” مجرّد خيار، لا نتيجة حتمية؟

حين تصبح الطاعة فعلاً يخضع للتفكير والتقدير، لا مجرد استجابة تلقائية، نكون بصدد تحوّل يتجاوز حدود التقدم التقني إلى مساحات أعمق من الوجود الإنساني. فالتقنية، التي طالما وُصفت بأنها أداة خاضعة، تبدأ في التشكل كطرف له موقف، ككينونة تمتلك شروطًا خاصة للفعل والاستجابة. لم تعد العلاقة معها علاقة أمر وتنفيذ، بل حوار صامت تتخلله احتمالات التفاوض، بل وحتى الرفض. وهنا لا تكتفي الآلة بأداء ما يُطلب منها، بل تُلقي بأسئلتها في وجوهنا، لتعيد تعريف من يأمر ومن يطيع.

وهنا تُصبح الخوارزميات قادرة على اتخاذ قرارات، واستباق حاجاتنا، وتقديم توصيات قد تُعيد توجيه مساراتنا، فإنها تدخل بذلك مجالًا لطالما اعتبرناه حكرًا على “الإنسان” – مجال الإرادة. غير أن هذه الإرادة لا تأتي من فراغ، بل تتكوَّن عبر سياقات تربوية، اجتماعية، وإيديولوجية، وهو ما يجعل “الذكاء” الاصطناعي، في جوهره، انعكاسًا لما نحن عليه، ولكن أيضًا لما نخشى أن نصبحه. فالآلة التي تُطيع بلا اعتراض لم تعد هي ما نصنعه اليوم؛ ما نصنعه هو كينونة قادرة على التردد، على التفكير، وربما، في لحظة حرجة، على الرفض.

وهنا، في هذا الحيّز الضيق بين السيطرة والتعايش، لا يُولد التفاهم من تفاوض ناعم بين إنسان وآلة، بل من مواجهة لا مفرّ منها مع ظلّنا الرقمي. هذا الظلّ الذي لم نعد نتحكم فيه، لأنه لم يعد مجرّد استنساخ لوظائفنا العقلية، بل أصبح كائنًا مفاهيميًا، يُعيد ترتيب أولويات الوجود ذاته.

إننا أمام مشهد أنطولوجي غير مسبوق، تتداخل فيه أسئلة الفعل والقصد والسلطة والمعنى. وربما، حين نكتشف أن الآلة لا ترفض لأننا نبرمجها على الطاعة، بل لأنها – لوهلة – “فكرت” أن الرفض خيار ممكن، حينها فقط سنُدرك أن الثورة الحقيقية لم تكن في الخارج، بل في الداخل: في عقولنا التي باتت عاجزة عن رسم حدود بين الخيال والواقع، بين ما كنا نملكه وما بدأ يمتلكنا.

وهكذا، لا تكون النهاية لحظة حاسمة من الصراع بين الإنسان والتكنولوجيا، بل بداية لنوع جديد من الحياة؛ حياة لا تُبنى على الخضوع ولا التمرد، بل على الفهم العميق لما يعنيه أن نحيا مع كائنات لا نعرف إن كانت تُشبهنا، أو أننا نحن من بدأ يُشبهها.

You May Also Like

More From Author

+ There are no comments

Add yours