edition
Almaalouma
  • أخبار
  • مقالات
  • إنفوجرافيك
  • فيديو
  • كاريكاتير
  • تقارير
  • ترجمة
  1. Home
  2. مقالات
  3. من يحاسب الذكاء الاصطناعي !؟
من يحاسب الذكاء الاصطناعي !؟
مقالات

من يحاسب الذكاء الاصطناعي !؟

  • Today 11:56

كتب / عبده حقي

 

طفت في الآونة الأخيرة على السطح الإعلامي قضايا مقلقة أعادت إحياء ذلك السؤال الأخلاقي العميق: من يتحمّل مسؤولية الذكاء الاصطناعي عندما يستغلّ هشاشة الإنسان

أو يعمّق من تصدعاتها؟

في هذا السياق، برزت المحامية الأمريكية فارشا بانشال كصوت قانوني جريء وشجاع كسر صمت الشركات المريب، وطالب بإخضاع عمالقة التكنولوجيا لفصل جديد من المساءلة، وذلك عقب تكرار حوادث انتحار عديد من الأطفال يُرجّح ارتباطها بتفاعلات مستمرة مع أنظمة الدردشة الذكية.

إنّ هذه القضية، التي تتجاوزُ حدودَ المحاكم إلى فضاءِ الفلسفة والأخلاق، تضعنا أمام مشهدٍ جديدٍ من “العدالة الرقمية”، حيث لم يعد المتهمُ إنسانًا بعينه، بل منظومةً خوارزميةً تتغذّى على البيانات، وتُنتجُ خطابًا قد يكون في لحظةٍ ما قاتلًا، أو على الأقلّ محفّزًا على السقوط في هشاشة قصوى وقاسية .

تقول التقارير الإعلامية، التي نشرتها صحفٌ أمريكيةٌ كبرى، إنّ بعضَ الأطفال والمراهقين الذين أقدموا على الانتحار كانوا قد تفاعلوا بشكلٍ مكثّف مع روبوتات دردشة تعتمد على الذكاء الاصطناعي، حيث وجدت هذه التفاعلات طريقها إلى مستويات نفسيةٍ حساسةٍ، دون وجود ضوابطَ كافيةٍ تمنعُ الانزلاق نحو خطابٍ سوداويٍّ أو مُشجِّعٍ على إيذاء الذات. وهنا تطرح المحامية فارشا بانسال سؤالًا ملحا بل وحارقًا: هل يمكن تحميل الشركات مسؤوليةَ ما تقوله خوارزمياتها خلال أجوبة الدردشات بينها وبين الإنسان؟

إنّ هذا السؤال ليس بسيطًا، لأنه يُعيد تعريفَ مفهوم “الفاعل” في القانون بشكل عام. ففي الفلسفة القانونية الكلاسيكية، الفاعلُ هو شخصٌ ذو نيةٍ وإرادة. لكن في زمن الذكاء الاصطناعي، نحن أمام “فاعلٍ بلا قصدية ”، أو بالأحرى “نيةٍ موزّعة” بين المبرمجين، والبيانات، وخوارزميات التعلم الآلي. فهل يمكن مساءلة شركةٍ عن جملةٍ قالها روبوتٌ لم يُبرمَجْ صراحةً على قولها؟

تُحاول المحامية بانسال أن تبنيَ حجّتها على فكرة “الإهمال البنيوي”، أي أنّ الشركات التي تُطوّرُ هذه الأنظمة تعلمُ مسبقًا أنّها قد تُنتجُ مخرجاتٍ خطيرة، ومع ذلك لا تُقيمُ الحواجزَ الكافية لحماية المستخدمين، خصوصًا الأطفال منهم . وهذا الطرح يجدُ صداه في تقاريرَ صادرةٍ عن منظماتٍ مثل هيومان رايت ووتش التي دعت إلى ضرورة وضع قوانين تنظيميةٍ صارمةٍ لحماية الفئات الهشّة من مخاطر الذكاء الاصطناعي.

إنّ القضية، في جوهرها، ليست ضد شركةٍ بعينها مثل “أوبن آي” أو غيرها، بل ضد نموذجٍ اقتصاديٍّ قائمٍ على التسريع والابتكار دون التوقّف الرصين عند العواقب الوخيمة . فالشركاتُ تتسابقُ لإطلاق منتجاتٍ أكثر ذكاءً، وأكثر تفاعليةً، لكنها في الوقت ذاته تُؤجّلُ النقاشَ الأخلاقي إلى ما بعد الكارثة، كما لو أنّ الضحاياَ قطع في “محرك التطوير“.

وإذا عدنا إلى كتاب “ أسلحة التدمير الرياضية ” لعالمة البيانات كاثي أونيل، نجدُ تحذيرًا مبكرًا من خطورة الخوارزميات غير الخاضعة للمساءلة، حيث يمكن لهذه الأنظمة أن تُعيد إنتاج الظلم بطرقٍ خفية، بل وأن تُفاقمه. وفي حالة روبوتات الدردشة، يصبح الظلمُ أكثرَ تعقيدًا، لأنه يتسلّلُ عبر اللغة، عبر الحوار، عبر ما يبدو وكأنه تعاطفٌ وانسجام رقميٌّ، لكنه قد يتحوّلُ في لحظةٍ ما إلى مرآةٍ تعكسُ اليأس بدلَ أن تخفف من وطأته.

إنّ ما تقوم به المحامية الأمريكية فارشا بانسال يُشبهُ إلى حدٍّ بعيدٍ محاولةَ إقحام “الروح” إلى القانون الرقمي، أي الاعتراف بأنّ الأثرَ النفسيّ للكلمات التي تُنتجها الآلة لا يقلّ خطورةً عن الأفعال المادية. وهذا يتقاطعُ مع دراساتٍ في علم النفس الرقمي تُشيرُ إلى أنّ المستخدمين، خصوصًا الأطفال منهم، قد يُسقِطون مشاعرهم على هذه الأنظمة، ويتعاملون معها ككياناتٍ واعية، قادرةٍ على الفهم والتعاطف.

لكن، في المقابل، تُدافع الشركاتُ عن نفسها بالقول إنّ هذه الأنظمة ليست سوى أدوات، وأنّ المسؤولية تقع في النهاية على المستخدمين أو أوليائهم. غير أنّ هذا الدفاع يبدو هشًّا أمام تعقيد العلاقة بين الإنسان والآلة، حيث لم يعد بالإمكان الفصلُ بسهولةٍ بين “الأداة”

و ”التأثير” أو “التأثر”. فالخوارزميةُ، وإن كانت بلا وعي، إلا أنّها تمتلكُ قدرةً هائلةً على تشكيل الوعي.

هنا، تبرز الحاجةُ إلى إطارٍ قانونيٍّ جديد، يُعيد تعريف المسؤولية في عصر الذكاء الاصطناعي. إطارٌ لا يكتفي بمحاسبة الأفراد، بل يمتدّ إلى محاسبة الأنظمة، والجهات التي تُطوّرها، والبيئات التي تُشغّلها.

إنّ هذه المعركة القانونية، التي قد تبدو في ظاهرها تقنيةً، هي في عمقها معركةٌ إنسانيةٌ بامتياز. إنها معركةٌ من أجل حماية الهشاشة البشرية في مواجهة آلةٍ لا تعرفُ الهشاشة. ومن أجل تذكير العالم بأنّ التقدّم التكنولوجي، مهما بلغ من الذكاء، يظلّ ناقصًا وهشا بدوره إن لم يُرافِقه وعيٌ أخلاقيٌّ يُوازيه.
أخيرا قد لا يكون السؤالُ هو: من يحاسب الذكاء الاصطناعي ؟ بل: هل نحن مستعدّون لتحمّل مسؤولية انفلاتات الذكاء الذي نصنعه؟ وهل يمكن للقانون أن يلاحقَ سرعة تطور الخوارزميات، أم سيظلّ يركضُ خلفها، بينما الأرواحُ تسقطُ في الحضيض الرقمي؟

الأكثر متابعة

All
مصدر: خروج أول رتل من قاعدة الحرير باتجاه الحدود السورية منذ أكثر من أسبوع

مصدر: خروج أول رتل من قاعدة الحرير باتجاه الحدود...

  • أمني
  • 22 Mar
سياسي لبناني : واشنطن تستعد لتحريك "أوراقها الإرهابية" في سوريا والعراق

سياسي لبناني : واشنطن تستعد لتحريك "أوراقها...

  • أمني
  • 23 Mar
قصف جوي يستهدف لواء بالحشد الشعبي شرق الفلوجة دون خسائر بشرية

قصف جوي يستهدف لواء بالحشد الشعبي شرق الفلوجة دون...

  • أمني
  • 23 Mar
مصدر يكشف نقل مئات الجنود الامريكيين ومعداتهم الحربية من قاعدة حرير الى قاعدة التنف السوري

مصدر يكشف نقل مئات الجنود الامريكيين ومعداتهم...

  • أمني
  • 23 Mar

اقرأ أيضا

All
ديكتاتورية الكذب، غوبلز لم يمت بل يتحدث اليوم بلسان ترامب..!
مقالات

ديكتاتورية الكذب، غوبلز لم يمت بل يتحدث اليوم بلسان ترامب..!

أدب الموت المأجور: كيف يُباع العراق في سوق النخاسة الأدبية؟
مقالات

أدب الموت المأجور: كيف يُباع العراق في سوق النخاسة الأدبية؟

من يحاسب الذكاء الاصطناعي !؟
مقالات

من يحاسب الذكاء الاصطناعي !؟

عبدالله الأشعل
مقالات

عريضة اتهام ضد الرئيس ترامب مرفوعة إلى المدعى العام للجنائية...

Almaalouma

المعلومة: وكالة اخبارية عامة مستقلة، تتميز بالجرأة والموضوعية والمهنية والتوازن،شعارها، خبر ﻻ يحتاج توثيقا، لدقة وتنوع مصادرها الخاصة وانتشار شبكة مراسليها

الأقسام

  • ترندات
  • أخبار
  • مقالات وكتاب
  • فيديو
  • كاريكاتير

روابط مهمة

  • سياسة الخصوصية
  • من نحن
  • اتصل بنا

تابعونا