هل سيؤدي الذكاء الإصطناعي لتوسيع نطاق الإخفاقات البشرية؟

ردنا – تطبيقات الذكاء الإصطناعي هي الترند حالياً في عالم التقنية، خصوصاً عندما يتعلّق الأمر بالنسخة المطورة “شات جي بي تي- 4” التي تم إطلاقها منتصف شهر مارس/آذار الماضي، وهي التي تتوفر على خصائص جديدة تتعدى بكثير النسخة السابقة.

وإن كان التطوّر الكبير في الذكاء الاصطناعي يجلب الاهتمام، خصوصاً قدرته تقديم أجوبة فيها نسب من الدقة، وقدرته كذلك القيام بعدد من المهام البشرية في العديد من المهن، ومن ذلك مهام الكتابة والترجمة والمحاسبة وجمع المعلومات والتحليل المالي وغير ذلك، فإنه في الجانب الآخر يثير مخاوف كبيرة تهدّد الكثير من الناس ليس فقط بفقدان وظائفهم.

 

البعد الأخلاقي للذكاء الإصطناعي

وتؤكد اليونسكو أنه يجب استحضار البعد الأخلاقي في طموح الدول للاستفادة من هذا التطوّر التقني حتى يتم تقليل المخاطر الناجمة عنه. وتؤكد المنظمة الاممية أن هذه التقنية تخلق حالياً تحديات كبيرة، خصوصا إمكانية نشرها لمعلومات مضللة، وأخرى فيها انتهاك لحقوق الأفراد والمجموعات.

فقد دعت هذه المنظمة بلدان العالم إلى تطبيق توصيتها الصادرة عام 2021 لتنظيم الذكاء الاصطناعي، بعدما دعا إيلون ماسك (رئيس تويتر ومؤسس شركتي سبيس إكس وتسلا) ومئات الخبراء إلى وقف تطوير هذه البرامج 6 أشهر محذرين من مخاطر كبيرة على البشرية.

وقالت المديرة العامة لليونسكو أودري أزولاي في بيان “يحتاج العالم إلى قواعد أخلاقية أقوى للذكاء الاصطناعي، وهذا هو التحدي الذي نواجهه في وقتنا الحاضر. لقد وضعت توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي الإطار التقني المناسب”.

وفي العريضة المنشورة عبر موقع “فيوتشر أوف لايف” (futureoflife.org) طالب الخبراء بوقف موقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية منها، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، ومراقبة أنظمة الذكاء الاصطناعي، وتقنيات تساعد على تمييز الأعمال الفعلية من تلك المُبتكرة من برامج للذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع “المشاكل الاقتصادية والسياسية التي تتسبّب بها هذه البرامج”.

وسأل هؤلاء “هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والأكاذيب؟.. هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟.. لا ينبغي تفويض هذه القرارات لقادة تكنولوجيين غير منتخبين”.

الذكاء الاصطناعي له القدرة على توسيع نطاق جميع الإخفاقات البشرية ونشرها، من تجاهل الحريات المدنية وإدامة العنصرية والطائفية وعدم المساواة

تنظيم الضوابط والموازين

وكانت الدول الأعضاء الـ 193 باليونسكو أقرت بالإجماع في نوفمبر/تشرين الثاني 2021 “إطار العمل المعياري العالمي الأول للاستخدام الأخلاقي للذكاء الاصطناعي” وهي “خريطة طريق للبلدان، تصف طريقة الإفادة القصوى من فوائد الذكاء الاصطناعي مع تقليل المخاطر الناجمة عن هذه التكنولوجيا” بحسب المنظمة.

وصدر هذا النص بعد جهود استمرت 3 سنوات، ويفصّل الإجراءات التي يتعين القيام بها، ولا سيما إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته، أو “ضمان الأمن الكامل للبيانات الشخصية والحساسة” أو حتى تثقيف الجماهير حول موضوعها.

وعادت أزولاي لتقول “الوقت حان لتنفيذ الإستراتيجيات والأنظمة على الصعيد الوطني، وعلينا أن نحيل الأقوال إلى أفعال” معتبرة أن “من الواضح أنّ التنظيم الذاتي للقطاع غير كاف لتجنّب هذه الآفات الأخلاقية”.

وأشارت المنظمة الأممية إلى أن أكثر من 40 بلداً من جميع مناطق العالم تعمل مع اليونسكو لتطوير ضوابط وموازين الذكاء الاصطناعي على المستوى الوطني، استناداً إلى التوصية.

 

مخاطر حقيقية

وفي مقالهما المشترك بصحيفة واشنطن بوست (Washington Post) أشار الكاتبان دارين واكر (رئيس مؤسسة فورد) وهمانت تانيغا (رئيس شركة جنرال كاتاليست) إلى أن الذكاء الاصطناعي له القدرة على توسيع نطاق جميع الإخفاقات البشرية ونشرها، من تجاهل الحريات المدنية وإدامة العنصرية والطائفية وعدم المساواة.

وخلال ذلك ستقوم خوارزميات التعلم الآلي -التي تحاكي التعلم البشري- بتكرار الخطأ البشري والتحيز بطرق لا يمكن تمييزها غالبا، حتى نصطدم بالعواقب المتمثلة في القسوة الوحشية والاعتقالات الظالمة وفقدان الرعاية الحرجة لملايين السود، على سبيل المثال لا الحصر.

وأضاف الكاتبان أن الشركات التي تبحث وتطور الذكاء الاصطناعي تشارك أداة قوية مع جمهور قد لا يكون مستعدا لاستيعابها أو استخدامها بمسؤولية. كما أن الحكومات غير مستعدة بما فيه الكفاية لتنظيم هذه التقنية بطريقة تحمي المستخدمين لها، أو أولئك الذين قد يتضررون منها.

وختما المقال بالتأكيد على أن الذكاء الاصطناعي ليس مجرد اختراق تقني، وأننا إذا أردنا أن نحمي أنفسنا فعلينا أن نبادر بمواجهته ونطوق أنفسنا بحواجز توفر تلك الحماية ويجب أن يكون ذلك في أسرع وقت ممكن.

 

المصدر: ردنا + مواقع إلكترونية
مواضيع إضافية
اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.