تابعنا
في وقتٍ ليس ببعيد، كان البحث عن حيوان "الغوريلا" في محرك بحث  غوغل يُظهِر لك صوراً عديدة "للحيوان" المقصود، لكن من ضمن تلك الصور كانت تظهر صور لِنساء سوداوات، من ضمنهن "ميشيل أوباما"! سبب ذلك ضجة وسلّط الضوء على التمييز الذي تقوده شركات التكنولوجيا.

عندما بدأ معظم الشركات تبنّي خوارزميات الذكاء الصناعي، أصاب الناسَ حالة من التفاؤل عن مستقبل التكنولوجيا التي ترسم ملامح حياتنا الجديدة.

لكن من المؤسف أن معظم تلك الشركات أنشأت نظاماً يديم القوالب النمطية العنصرية على نطاق غير مسبوق في تاريخ البشرية.

شاع في الآونة الأخيرة الكلام عن ضرورة تضمين أنظمة أخلاقيات الذكاء الصناعي وسَنّ قوانين تحكم عملها، وزاد الحديث عنها بعدما طردت غوغل مسؤولة قسم الأخلاقيات لديها السيدة السمراء تيمنيتْ غيْبرو.

فما المقصود بتلك الأخلاقيات؟ وما خطورة غيابها؟

أخلاقيات الذكاء الصناعي

في العام الماضي اصطدمت سيارة ذاتية القيادة بأحد المشاة، كان السائق داخل السيارة ولكن عناصر التحكم كانت عند أجهزة الكمبيوتر بالكامل، هذه التقنية تواجه تحدّيات قانونية حول مَن يتحمل المسؤولية في حالة وقوع الحوادث.

بلا شك، نظراً إلى قوة وانتشار الذكاء الصناعي في كل مكان، يجادل البعض حول القانون الذي سيحكم شركات الذكاء الصناعي وما القواعد الصارمة الواجب وضعها لضمان سلامة المجتمع.

حتى الآن، فإن الشركات التي تطوّر أو تستخدم أنظمة الذكاء الصناعي تعتمد بشكل كبير على القوانين القائمة في السوق ومتطلباتها، حيث لا قانون حكومياً يحكمها أو يمنعها، لذلك يطالب الخبراء تلك الشركات بأن تعمل بمبدأ القاعدة الذهبية للأخلاق، الذي ينص على "معاملة الآخرين بالطريقة التي تحب أن يعاملوك بها".

أعرب عملاقا التكنولوجيا الأمريكية إيلون ماسك (مؤسس شركة سبيس إكس ورئيسها التنفيذي) و بيل غيتس (المدير التنفيذي السابق لشركة مايكروسوفت) عن مخاوف واضحة بشأن الحاجة إلى أخلاقيات الذكاء الصناعي وتقييم المخاطر التي تنتج عن سوء استخدام هذه التقنيات.

الذكاء الصناعي مجرَّد طفل صغير يتعلم الفُروق بين الصواب والخطأ الأخلاقي ويرث تحيُّزات المبرمجين، أو مثل حيوان أليف يعكس بشكل أعمى تعليمات مدربه وشخصيته.

أعرب وبيل غيتس (المدير التنفيذي السابق لشركة مايكروسوفت) عن مخاوفه من سوء استخدام تقنيات الذكاء الاصطناعي (AA)

لذلك إذا طُوّرَت تلك الخوارزميات بقصد خبيث أو دُرّبت باستخدام مدخلات بيانات عدائية أو بيانات مبنية على التحيّز والتمييز، فإنّ ذلك يمكن أن يهدد السلامة العامة، وهذا هو سبب أهمية أخلاقيات الذكاء الصناعي.

من الأمثلة على ذلك ما أثارته خوارزمية COMPAS من جدل كبير، تلك الخوارزمية التي ابتكرتها المحاكم في الولايات المتحدة لتوقُّع احتمالية تكرار أصحاب السوابق المخالفات، أشارت الخوارزمية بصورة خاطئة إلى السود بنسبة 45% مقارنة بالبيض بنسبة 23%.

بعض الأمثلة على الاستخدام الضارّ للذكاء الصناعي

أثبتت كبرى الشركات التكنولوجية (مثل آبل وغوغل وآي بي إم ومايكروسوفت) احتواء خوارزمياتها على تحيُّز عرقي بشكل فاضح.

أحد أبرز الأمثلة برامج التعرّف على الصوت، إذ كُشف عن معدلات خطأ أعلى عند نسخ أصوات الأشخاص ذوي البشرة السمراء مقارنةً بالبيض.

أيضاً طاردت تلك التهم شركة أمازون، إذ أثبتت وجود تفضيل للموظفين الذكور على حساب الإناث.

لم تنتهِ المسالة هنا، بل صنعت شركات التكنولوجيا تطبيقات قد تسبّب شرّاً هائلاً إذا ما استُخدمت خطأً، ومن الأمثلة الضارة لها انتحال الشخصية عبر تقنية Deepfake.

من المحتمَل أيضاً أن يحلّ الذكاء الصناعي محلّ البشر في مكان العمل عاجلاً لا آجلاً، أظهرت الأبحاث أن الأنظمة الآلية يمكنها أداء نصف الوظائف الحالية بسرعة وكفاءة أكبر من البشر. لقد أدرك كثير من الناس بالفعل أن الذكاء الصناعي سيكون تهديداً لفئات معينة من الوظائف، إذ سيتسبب في فقدانهم وظائفهم، وقد يكون لذلك تداعيات كبيرة على الاقتصاد الوطني على المدى الطويل.

لذلك اقترح الباحث السويسري Xavier Oberson فرض ضرائب على استخدام الروبوتات إذا كانت تؤدي وظائف كان يؤدّيها البشر تقليدياً.

ويقترح أن الأموال الناتجة عن مثل هذه الضريبة يمكن أن تذهب لتمويل الضمان الاجتماعي، فضلاً عن تدريب العاطلين عن العمل.

من المحتمَل أن يحلّ الذكاء الصناعي محلّ البشر في مكان العمل (Others)

إن أنظمة الذكاء الصناعي التي تنتج نتائج غير موثوقة أو غير آمنة وذات جودة رديئة يمكن أن تؤدي بشكل مباشر إلى الإضرار برفاهية الأفراد وكذلك الإضرار بالصالح العامّ، هذه النتائج قد تقود إلى تقليل ثقة الجمهور في الاستخدام المسؤول لِتقنيات الذكاء الصناعي المفيدة للمجتمع.

نمو الذكاء الصناعي الخارق مع غياب الأخلاقيات

أنظمة الذكاء الصناعي تتطوّر تطوراً كبيراً جداً، ومن المتوقع أن يصل العلماء إلى مستوى الذكاء الصناعي الخارق بحدود عام 2050.

هذا التطوّر دفع كثيراً من الخبراء وصُنّاع القرار إلى المطالبة بوضع حد لتلك الأنظمة، وسَنّ قوانين وتشريعات تنظّم عمل الشركات المصنّعة لتلك الأنظمة.

وحسب عدة مراكز بحثية، يمكن أن يصبح الذكاء الصناعي خارقاً لدرجة أن البشر لن يكونوا قادرين على منعه من تحقيق أهدافه، إذ سيكون قادراً على المبادرة المستقلة ووضع الخطط الخاصة به، وبالتالي قد يكون من الأنسب التفكير فيه كعامل مستقل.

سيكون الأمر متروكاً لمصممي الذكاء الخارق لتحديد دوافعه الأصلية، لأن الذكاء الصناعي الخارق سيكون قادراً على تحقيق أي نتيجة محتملة تقريباً وإحباط أي محاولة لمنع تنفيذ أهدافه، فقد ينشأ عديد من العواقب المقصودة وغير المقصودة، ويمكن أن يسبّب الأذى لجميع العملاء، ويقنعهم بتغيير سلوكهم، أو يمنعهم من التدخل.

تتمثّل إحدى نقاط القوة في الذكاء الصناعي في قدرته على أتمتة عملية صنع القرار، وبالتالي تقليل العبء عن كاهل البشر والإسراع -وربما الإسراع الشديد- في بعض أنواع عمليات صنع القرار.

مع ذلك فإن هذه الأتمتة في اتخاذ القرار ستطرح مشكلات كبيرة للمجتمع، لأنه إذا كانت هذه القرارات الآلية جيدة، فسوف يستفيد المجتمع، ولكن إذا كانت سيئة فسوف تسبّب الضرر للمجتمع.

أحد المجالات التي يمكن للذكاء الصناعي أن يغيّر اللعبة فيها تماماً هو الإقراض والاقتراض، إذ يصعب الوصول إلى رأس المال جزئياً، لأن البنوك غالباً ما تكافح للحصول على صورة دقيقة عن جدوى الأعمال التجارية الصغيرة و جدارتها الائتمانية.

شركات التكنولوجيا الكبيرة هذه لا تخضع للتنظيم الذاتي، ولا تخضع للتنظيم الحكومي المناسب. في الخريف الماضي درّس ساندل (أستاذ في جامعة هارفارد) "أخلاقيات التكنولوجيا"، وصرح قائلاً: "على الشركات التفكير بجدية في الأبعاد الأخلاقية لما تفعله، وعلينا كمواطنين تثقيف أنفسنا بشأن التكنولوجيا وآثارها الاجتماعية والأخلاقية، ليس فقط لتقرير اللوائح التي ينبغي أن تكون، ولكن أيضاً لنقرّر ما الدور الذي نريد أن تلعبه التكنولوجيا الكبيرة ووسائل التواصل الاجتماعي في حياتنا".

خُصّص عديد من المبادرات العالمية للتأكُّد من أن تطوير الذكاء الصناعي يتضمن معايير أخلاقية، ومع ذلك لا يرى الجميع سماء زرقاء في الأفق، ويشعر كثيرون بالقلق بشأن ما إذا كان العصر القادم للذكاء الصناعي سيوفّر طرقاً جديدة وأسرع وخالية من الاحتكاك للَتمييز والتقسيم على نطاق واسع.

TRT عربي
الأكثر تداولاً