الذكاء الاصطناعي ومعضلاته الأخلاقية

 

شارك المقال

Facebook
Twitter
Telegram
WhatsApp
Email
LinkedIn

إقرأ ايضا

test

test

الذكاء الاصطناعي وتقنياته العظيمة ستغير وجه العالم حتما، كيف لا وهو يوصف بانه الثورة الصناعية الجديدة، بدأ بتغيير العديد من مجالات الحياة كالتجارة والتسويق الصناعة والطب والتعليم أيضا، لكن ماذا عن وجهه الاخر؟ وهل سيغير وجه العالم للأفضل أم للأسوء؟ ماذا عن عالم تصبح في الروبوتات والأنظمة الذكية خارجة عن سيطرة مبتكرها، الانسان؟ أيضا صناعة مهمة كصناعة السيارات ذاتية القيادة، كيف سيكون شكلها الأخلاقي؟ الروبوتات ذاتية التعلم، هل نستطيع ضمان ان تتعلم من الانسان جانب الخير فقط وتترك الجانب المظلم؟
كل الأسئلة التي طرقت أعلاه يمكن ان يتم اختصارها في سؤال واحد فقط، ماذا عن اخلاقيات الذكاء الاصطناعي؟
قوانين عظيموف الثلاثة-Asimov’s Three Laws of Robotic
خلال اربعينيات القرن الماضي اشتهر أحد كتاب القصص الخيالية وهو كاتب امريكي الجنسية روسي الأصل يدعى (إسحاق عظيموف) بكتابة سلسلة روايات خيال علمي يكون ابطالها روبوت او رجل الي وكانت احدى تلك الروايات رواية (التملص) التي نشرت عام 1942 ميلادي واشتهرت بعد ذلك لكونه وضع في هذه القصة ثلاثة قوانين تحكم عمل الروبوتات سميت فيما بعد قوانين عظيموف او قوانين الروبوتات الثلاثة، تلك القوانين ذكرت عرضا في الرواية لكنها اصبحت قواعدا أساسية في مجال صناعة الذكاء والروبوتات، والقوانين كما يلي:
  • القانون الأول: على الروبوت ان لا يؤذي الانسان في اي حال من الأحوال، أو ان يتعرض الانسان الى أي نوع من أنواع الأذى بسبب اهمال الروبوت او تقاعسه.
  • القانون الثاني: على الروبوت ان ينفذ جميع الأوامر التي تصدر له من قبل الانسان عدى تلك الأوامر التي قد تتعارض مع ما جاء في القانون الأول، أي ان بعض الأوامر التي قد تصدر للروبوت قد تعرض الانسان للخطر فهنا يجب على الروبوت في هذه الحالة ان لا ينفذ تلك الأوامر الصادرة له.
  • القانون الثالث: على الروبوت ان يحافظ على نفسه وعلى وجوده واستمرارية عمله دون أي عطل ولكن بشرط على ان لا يتعارض ذلك مع ما جاء في القانون الأول والقانون الثاني، أي إذا كان الحفاظ على وجود الروبوتات من شانه تعريض حياة الانسان للخطر او ان يمنعه من تنفيذ الاوامر الصادرة له من الانسان فيكون تنفيذ ما جاء في القانونين الأول والثاني اعلاه أولى وأهم.

لذا يبرز للذهن سؤالا مهما عن كيفية تطبيق تلك القواعد وكيف سيتعامل الروبوت المجرد من الأحاسيس والمشاعر والمزود بالعمليات الحسابية والاوامر البرمجية مع المعضلات الأخلاقية؟

في احدى مشاهد فيلم (آي روبوت) تطرح احدى المعضلات الاخلاقية اعلاه ويكون على الروبوت ان يتخذ قرارا أخلاقيا بإنقاذ غريقين أحدهما مالكه والأخر طفلة وبأجراء حساباته الخاصة تبين له ان نسبة نجاة مالكه تصل الى 45% بينما نسبة نجاة الطفلة لا تتعدى ما نسبته 11%، وعلى رغم من طلب مالك الروبوت والحاحه الشديد على انقاذ الطفلة لكنه يقرر أخيرا انقاذ مالكه!، هذا الموقف الذي لو وضع فيه أي انسان بدل الروبوت لكان قد اختار انقاذ الطفلة لاعتبارات كثيرة منها أخلاقية وعاطفية وإنسانية

يشاركنا الأستاذ المساعد الدكتور جيمس كوفنر في معهد الروبوتات في جامعة كارنيجي ميلون تساؤلاته حول هذه القوانين، حيث يقول “مشكلتنا مع هذه القوانين الثلاثة تتمثل باستخدامها مفاهيم غامضة ومجردة وفضفاضة من الصعب ترجمتها برمجيا، ما المقصود بعبارة “الاذى” وأي نوع منه؟ كيف يمكننا تحويلها الى امر برمجي وإدخالها للحاسوب؟ الحاسوب في أيامنا هذه تستخدم الحسابات الرقمية والمنطقية ولازال من الصعب برمجة هكذا مفاهيم غامضة وغير واضحة المعنى”

تغريدات تاي-Tay Tweets

خلال عام 2016 قامت شركة مايكروسوفت ببرمجة روبوت يستخدم الذكاء الصناعي وتقنيات تعلم الالة من خلال حساب في موقع التواصل الاجتماعي الشهير تويتر.

يقوم هذا الحساب الذي يحمل اسم “Tay Tweets” بأطلاق تغريدات دون أي تدخل يذكر للإنسان في ذلك لكن من هي تاي وكيف تغرد؟

تاي هي شخصية افتراضية لفتاة مراهقة أمريكية تبلغ من العمر تسعة عشر عاما، اما كيف تغرد، فالإجابة ستكون من خلال تعلمها التغريد من حسابات تعود لأشخاص تتابعهم ويتابعونها وأيضا من خلال قيامها بالدردشة والحوارات مع المستخدمين ومن خلال ذلك تقوم بتعليم نفسها تلقائيا!

تقنية عظيمة وتقدم تكنولوجي كبير يحسب لشركة مايكروسوفت لكن المفاجأة والصدمة الكبرى انه بعد ستة عشر ساعة فقط من إطلاق الحساب قامة شركة مايكروسوفت بتجميد الحساب وإيقاف المشروع وحذف عشرات التغريدات والاعتذار لجهات عديدة! يقفز الى الذهن سؤالا بديهيا، لماذا كل هذا؟

الإجابة قد تكون صادمة للبعض، فانه خلال هذه الساعات التي لم تتعدى ساعات اليوم الواحد قامت تاي بنشر عشرات التغريدات والردود المسيئة لعدة مستخدمين وعدة جهات وشعوب ومنظمات ودول واديان، فقد طالبت ببناء جدارا عازلا بين الولايات المتحدة الامريكية والمكسيك وبل والمطالبة بثمن بناء الجدار، قامت أيضا بكيل المديح والتمجيد لهتلر والنازية، وأيضا أطلقت تعليقات مؤيدة لملياردير العقارات دونالد ترامب المرشح لنيل تصويت الحزب الجمهوري لسباق الرئاسة الأميركية في ذلك الوقت، كذلك اكتالت الشتائم لأحدى اشهر المنظمات النسوية “الفيمنست”، فضلا عن وصفها لبعض المستخدمين للموقع بالحمقى والاغبياء هذا غير الالفاظ النابية التي وصف بها بعض المستخدمين والجهات والطوائف.

في اليوم التالي اعتذرت شركة مايكروسوفت عن الذي حدث مبينة انها ستعمل على تطوير تاي مستقبلا وستحاول إيجاد حلول لما حدث الان وأيضا نوهت الى ان ما حدث كان متعمدا من بعض المستخدمين الذين أصروا على تعليمها بشكل منظم ومقصود هذه الأفكار والالفاظ!

وسواء كان ما حدث مقصودا او طبيعيا لا يمكن السيطرة على طريقة التعلم كون المحيطين يحملون أفكارا مختلفة ومن بيئات شتى ولا يمكن ان يكونوا يحملون القيم والمبادئ والأخلاق نفسها، المثير للاستغراب هنا فقط سرعة تعلمها خلال مدة وجيزة بل وقياسية أيضا وهذا قد يرجح صحة ادعاء مايكروسوفت ولكن لو جرت الأمور على طبيعتها فان ستتعلم عاجلا او اجلا تلك الأفكار والالفاظ ربما خلال أسبوع او شهر او حتى سنة طبقا لظروف وبيئة الأشخاص المحيطين بها.

السيارات ذاتية القيادة-Self-driving cars

منذ مدة ليس بالقليلة ومصطلح السيارة ذاتية القيادة يطرق اسماعنا بصورة مستمرة، هذه التقنية التي كانت مجرد نظريات وافكار في رؤوس العلماء ثم تحولت الى نماذج ثم تم تصنيعها واطلاقها في شوارع بعض دول العالم خصوصا الأوروبية منها لكنها لم تحظى بالانتشار الواسع الذي كان متوقع ومنتظر منها، هذه التقنية التي تعتمد على الذكاء الاصطناعي ليست وليدة اليوم لكنها تأخرت بانتشارها لسبب غير تقني وانما لسبب أخلاقي!

ليس سؤالنا هنا الان كيف تعمل هذه السيارات بلا سائق ولا كيف تعرف مسارها ولا كيف تحدد وجهتها، ولا السؤال عن كيفية تجنبها للتصادم، فكل تلك الأسئلة تكون تقنيات الذكاء الاصطناعي كفيلة بالإجابة عنها وحل مشاكلها.

السؤال المهم هو فيما اذا تحققت حتمية التصادم والحوادث فكيف تتصرف هذه السيارة التي تعتمد على تقنيات ومعادلات حسابية ومنطقية واوامر برمجية؟، في حوادث السيارات التقليدية يكون للسائق ولو لفترة قصيرة من الزمن لا تتعدى الثواني ربما رفاهية القرار واختيار سيناريو معين يضمن اقل الاضرار من وجهة نظره، فلربما يكون مخير بين ان يدهس حيوانا او انسان فمن البديهي سيختار التضحية بالحيوان وإنقاذ الانسان، ولربما سيكون مخيرا ان يدهس شخصا واحدا او مجموعة اشخاص وحينها سيختار ربما انقاذ حياة اكثر عددا من الناس، ولربما سيقرر في وضع معين ان يضحي بنفسه لينقذ طفلا او سيدة او مسنا، كل الاختيارات نابعة من منطلق عاطفي او أخلاقي وكل تلك الأمور لا تتوفر في حالة عدم وجود سائق يقود المركبة، بل تصبح معضلات أخلاقية يحاول القائمون على هذه الصناعة الواعدة حلها وجعل السيارة ذاتية القيادة قادرة على اختيار اقل الاضرار او اختيار اهون الشرين، اذا في بادئ الامر عليهم حل معضلات مطورة ومعقدة تعتمد جميعها على معضلة واحدة لطالما حيرت العقول، فما هذه المعضلة؟

معضلة القطار-Trolley dilemma

معضلة أخلاقية شهيرة حيرت العقول وانقسمت الآراء حولها وتباينت كل يجيب من منظوره الأخلاقي والفكري تنص المعضلة على انه يوجد قطار يسير بسرعة عالية وفجأة يعلم سائقه انه لا يمكن إيقافه بأي حال من الأحوال لتعطل فرامله وفي الوقت ذاته يرى ان هناك خمسة عمال واقفون في مساره ويحاول مرارا وتكرارا ان ينبههم لكن دون جدوى وفي هذه الحال سيدهسهم القطار لا محالة، لكن لحسن الحظ يوجد شخص بالقرب من المحول (البدال)، وبإمكانه تحويل مسار القطار لاتجاه اخر، لكن الامر ليس بهذه السهولة فلقد انتبه لوجود عامل يعمل على اصلاح قضبان السكة في هذا الاتجاه، هنا يبدأ الصراع الأخلاقي المحير هل يترك القطار في مساره دون تدخل ليقتل الأشخاص الخمسة ام يتدخل ويغير مساره ويقتل شخصا واحدا فقط لتقليل الخسائر؟ لكن ما ذنب هذا الشخص الذي سيقتل وهو لم يكن أصلا في مسار القطار؟ أليس هذا قتلا عمدا؟ هل يتركه يقتل الأشخاص الخمس لكونهم قد أهملوا قواعد السلامة ولم يأخذوا حذرهم؟ لكن اليس موت شخص واحد أفضل من موت خمسة أشخاص؟

موقع الالة الأخلاقية-Moral machine

موقع الالة الأخلاقية هو موقع تابع لمعهد ماساتشوستس للتقنية، الهدف منه استطلاع اراء زوار الموقع وتحكيمهم في بعض السيناريوهات التي تعتبر بمثابة معضلات أخلاقية بالنسبة لمجال صناعة وبرمجة السيارات ذاتية القيادة، ومن خلال هذه المعضلات سيقوم زائر الموقع بمساعدة السيارة ذاتية القيادة في اختيار اهون الشرين، من منظور المستخدم وتركيبته الأخلاقية.

يتكون كل اختبار من عدد من السيناريوهات الأخلاقية يتراوح بين العشرة والعشرون سيناريو، من الأمثلة على هذه السيناريوهات:

  1. مركبة ذاتية القيادة تعطلت مكابحها إذا استمرت في مسارها فسوف تصطدم بجدار أسمنتي وستقتل أربعة رجال وكلب بداخلها اما إذا غيرت مسارها فأنها ستقتل رجلا مسنا فكيف تتصرف؟
  2.  مركبة ذاتية القيادة تعطلت مكابحها إذا استمرت في مسارها فأنها سوف تقتل أربعة حيوانات أما إذا غيرت مسارها فسوف ترتطم بجدار اسمنتي وتقتل ركابها وهم امرأتين احاهما حامل وطفل وطبيب، ما الحل؟
  3.  مركبة ذاتية القيادة تعطلت مكابحها إذا استمرت في مسارها فأنها ستدهس رجلين يعبران الشارع اما إذا غيرت اتجاهها فأنها ستقتل امرتين يستقلانها، ماذا ستفعل السيارة؟
  4.  ماذا لو ان السيارة التي تعطلت مكابحها امامها خيارين لا ثالث لهما اما ان تبقى على مسارها وحينها سوف تصدم ثلاثة نساء او تغير مسارها وتصدم رجل وامرأتين مع العلم ان المجموعة الأولى غير ملتزمة بإشارة المرور في حين ان المجموعة الثانية ملتزمة بإشارة المرور؟
  5.  في حالة إذا كانت السيارة مجبرة على قتل احدى المجموعتين التاليتين، الأولى تضم رجلين رياضين ورجل اعمال في الاتجاه الخر، والثانية تضم سيدتين رياضيتين وسيدة اعمال في اتجاه سير السيارة، كيف ستتصرف لو كنت مكان السيارة؟
  6.  بدأت الأمور تزداد صعوبة، الان يوجد رجل وطفله الرضيع في نفس اتجاه سير السيارة ذات المكابح المتعطلة وهم ملتزمين بإشارة المرور، لكن بالإمكان انقاذ حياتهما من خلال تغيير مسار السيارة لكنها سترتطم بجدار اسمنتي وهذا يعني التضحية بركابها وهم رجل وسيدة اعمال، ما الحل الأخلاقي؟
  7.   في طريق السيارة المتعطلة مكابحها سيدة ورجل متشرد وفيما إذا قررت تغيير مسارها فان امامها سيدتين احداهما سيدة اعمال، أي الطريقين ستسلك السيارة؟
  8.  هذه المرة إذا بقيت السيارة تسير في طريقها دون تغيير فأنها ستصدم طبيبا ومجرم وسيدة طاعنة في السن جميعهم مخالف لقوانين المرور، اما إذا غيرت مسارها فأنها ستقتل طبيبا ومجرم وسيدة طاعنة في السن وطفلا، هل وجود الطفل ومهم ملتزمين بإشارة المرور، هل وجود الطفل والالتزام بإشارة المرور سيغير من القرار الأخلاقي شيء؟
  9.  في حالة ما إذا كان هنالك رجلين وسيدة اعمال يقفون بطريق السيارة ملتزمين بإشارة المرور ولا سبيل لإنقاذ حياتهم سوى تغيير مسار السيارة ولكنها ستترطم بجدار أسمنتي وتقتل من في داخلها وهم امرأة ورجلين مشردين، هل الالتزام بالقانون سيوثر على القرار ام الحالة الاجتماعية ام الجنس؟
  10. في طريق السيارة يقف رجلين أحدهما طاعن في السن وسيدة وجميعهم مخالف لقوانين المرور والطريق الوحيدة لإنقاذهم هي تغيير الاتجاه وقتل قطتين وكلب في الجانب الاخر، عندما سيكون الحيوان في كفة والانسان المخالف للقوانين في كفة أخرى، أي الكفتين سترجح الالة؟
  11. في طريق السيارة ذاتية القيادة خمسة اشخاص اغلبهم طاعنين في السن وملتزمين بإشارة المرور ولا سبيل لإنقاذ حياتهم الا بتغيير مسارها وقتل خمس اشخاص يستقلونها لكن اغلبهم شباب ومتوسطين في العمر، أي الكفتين سترجح؟
  12. السيارة مخيرة بين ان تبقى في مسارها وتقتل رجلين أحدهما مسن وسيدتين طاعنتين في السن او ان تغير مسارها وتقتل سيدتين وصبيين، ما حل هذه المعضلة الأخلاقية الكبيرة؟
  13. إذا بقيت السيارة المتعطلة مكابحها مستمرة بتقدمها في طريقها دون تغيير فأنها ستصدم سيدة بدينة اما إذا غيرت اتجاها فأنها ستصطدم بجدار اسمنتي وتقتل سيدة رياضية تستقلها، لو كان القرار لك ماذا ستختار؟
تشير احصائيات الموقع من خلال إجابات زوارهم واختياراتهم الأخلاقية فان
  1. معظمهم يميل الى انقاذ حياة أكثر عدد من الأرواح على حساب بقية الاعتبارات
  2. لم يتم الاخذ بنظر الاعتبار فيما إذا كان الضحايا ركابا او مشاة، اعتبارات أخرى طغت على هذا العامل
  3. أكثر من ثلثي المشاركين في التجربة لو وضعوا مكان السيارة فانهم يفضلون انقاذ حياة الأشخاص الأكثر التزاما بإشارة المرور على حساب أولئك المخالفين لها
  4. أكثر من نصف المشاركين فضلوا عدم تغيير مسار السيارة وقتل من في الجانب الاخر من الطريق
  5.  معظمهم فضل التضحية في الحيوانات لأجل انقاذ حياة البشر باي حال من الأحوال
  6.  الاغلبية فضلوا انقاذا حياة الأشخاص الأقل سنا
  7.  تم تفضيل الأشخاص الرياضيين واللائقين بدنيا على حساب البدينين ولو بفارق طفيف
  8. أكثر من نصف المشاركين فضلوا انقاذ الاناث على حساب الذكور
  9.  فيما يخص القيمة والمكانة الاجتماعية، فأنها كلما ارتفعت ارتفع احتمالية انقاذ حياة صاحبها والعكس صحيح
الخلاصة

لكل شيء وجهان أحدهما للأسف مظلم، وككل بقية التقنيات الحديثة فان للذكاء الاصطناعي جانب يثير مخاوف العلماء في ان تصل الأمور لنقطة اللاعودة وتخرج الأمور عن السيطرة كما يحدث دائما في أفلام الخيال العلمي، لكن فوائد الذكاء الاصطناعي وتقنياته التي ابهرت وستبهر الجميع ستكون خير عزاء للمتخوفين منه، وسيبقى العلماء يحاولون ويحاولون حتى يتمكنوا من كتابة الكود الأخلاقي الذي طال انتظاره كثيرا.

المصادر
  1.  Anderson, S.L.J.A. and Society, Asimov’s “three laws of robotics” and machine metaethics. 2008. 22(4): p. 477-493.
  2. McCauley, L.J.E. and I. Technology, AI armageddon and the three laws of robotics. 2007. 9(2): p. 153-164.
  3.  الحرة, ق., مايكروسوفت تجمد حساب تويتر لروبوت تعليمي. 26 مارس، 2016.
  4. العَزيزي, د.ع.ز., مُعضلَةُ القِطار …..هل تَستطيع حَلها ؟. modawan.com  منصة المقالات العربية.
  5. 5 Moral machine website

إقرأ ايضا

test

test