الجمعة، 19 أبريل 2024 12:13 م

حرب تشريعية ضد الذكاء الاصطناعى.. مفاجأة: مؤسس "GPT" يُحذِر الكونجرس من خطورة تركهِ بدون تقنين.. البرلمان الأوروبى أول مؤسسة تشريعية تتحرك لتقنينه.. والصين تحجبه: مصدر للمعلومات المضللة

حرب تشريعية ضد الذكاء الاصطناعى.. مفاجأة: مؤسس "GPT" يُحذِر الكونجرس من خطورة تركهِ بدون تقنين.. البرلمان الأوروبى أول مؤسسة تشريعية تتحرك لتقنينه.. والصين تحجبه: مصدر للمعلومات المضللة تشات جى بى تى
الخميس، 18 مايو 2023 09:00 م
كتبت آمال رسلان

خلال الفترة الماضية انتشرت مجموعة من الصور لعدد من المشاهير والسياسيين حول العالم فى أوضاع غير معتادة منها صور الملك تشارلز ملف بريطانيا يرقص على أحد الشواطئ، وفيديوهات لساسة كبار ورؤساء سابقين يتحدثون بعكس توجهاتهم، تلك الفيديوهات والصور أصابت العالم بصدمة كبيرة عندما تم الكشف عن أنها ليست حقيقة وتم تركيبها عن طريق استخدام برامج الذكاء الاصطناعى المطورة حديثا.

 

كل هذا إلى جانب انتشار شات جى بى تى "روبوت الدردشة" وامكانياته الخارقة أثار حالة من الفزع حول قدرات الذكاء الاصطناعى، وامكانية استخدامه فى تزييف الحقائق وخلق كوارث.

 

بعد ظهور المخاوف من تطور الذكاء الاصطناعى بدأت الغرف التشريعية خصوصا فى امريكا وأوروبا دراسة مشاريع قوانين لتحجيم وتقنين الذكاء الاصطناعى وخصوصا تشات جى بى تى، وذلك وسط مخاوف مما تحمله هذه البرامج من مخاطر كبيرة على البشرية.

 

وتدرس الولايات المتحدة الأمريكية حالياً وضع قوانين تنظيم تطبيقات الذكاء الاصطناعى، ما يتيح للبيت الأبيض وضع كوابح على التقنيات الجديدة مثل "شات جى بى تي" ChatGPT، واستدعى الكونجرس رئيس شركة الذكاء الاصطناعى التى تُصنع شات جى بى تى، سام ألتمان فى جلسة اسماع أمس بهذا الخصوص.

 

وافتتح السيناتور ريتشارد بلومنتال، الديمقراطى من ولاية كناتيكيت الذى يرأس اللجنة الفرعية للجنة القضائية فى مجلس الشيوخ بشأن الخصوصية والتكنولوجيا والقانون، الجلسة بخطاب مسجل بدا مثل صوته، لكنه فى الواقع كان استنساخًا صوتيًا تم تدريبه على خطب بلومنتال، ثم ألقى خطابا كتبه "شات جى بى تى" بعد أن طلب من "شات بوت" chatbot كتابة ملاحظاته الافتتاحية.

 

وقال بلومنتال، إن النتيجة كانت رائعة، لكنه أضاف: "ماذا لو طلبت منه خطابا يُبرز تأييدى لاستسلام أوكرانيا أو قيادة الرئيس الروسى، فلاديمير بوتين؟".

 

وأضاف بلومنتال، أنه يجب أن يُطلب من شركات الذكاء الاصطناعى اختبار أنظمتها والكشف عن المخاطر المعروفة قبل إطلاقها، وأعرب عن قلقه الخاص بشأن الكيفية التى يمكن أن تؤدى بها أنظمة الذكاء الاصطناعى المستقبلية إلى زعزعة استقرار سوق العمل.

 

وفى إفادته أمام الكونجرس رئيس شركة الذكاء الاصطناعى التى تُصنع شات جى بى تى، سام ألتمان إن التدخل الحكومى "سيكون مهما وحاسما للتخفيف من مخاطر أنظمة الذكاء الاصطناعى المتزايدة بقوة"، وفقا لوكالة "أسوشيتد برس".

 

وأدلى ألتمان، الرئيس التنفيذى لشركة "أوبن إيه أي" OpenAI، بشهادته قائلا: "مع تقدم هذه التكنولوجيا، ندرك أن الناس قلقون بشأن الكيفية التى يمكن أن تغير بها الطريقة التى نعيش بها. ونحن أيضًا نشعر بالأمر نفسه".

 

واقترح ألتمان تشكيل وكالة أمريكية أو عالمية تُرخص أنظمة الذكاء الاصطناعى وتتمتع بسلطة "سحب هذا الترخيص وضمان الامتثال لمعايير السلامة".

 

وحازت شركته الناشئة، التى تتخذ من سان فرانسيسكو مقراً لها، على اهتمام الجمهور بعد أن أطلقت "شات جى بى تي"، فى أواخر العام الماضى، وهى عبارة عن أداة روبوت محادثة مجانية تجيب على الأسئلة بإجابات مقنعة شبيهة بالإنسان.

 

وقال السناتور الجمهورى، جوش هاولى، من ميسوري: "سيتطور الذكاء الاصطناعى بطرق لا يمكننا حتى تخيلها، وسيكون له تداعيات كبيرة على انتخابات الامريكيين ووظائفهم وأمنهم".

 

وأضاف: "تمثل جلسة الاستماع هذه خطوة أولى حاسمة نحو فهم ما يجب أن يفعله الكونجرس".

 

ووجهت وزارة التجارة الأمريكية دعوة للجهات الفاعلة فى هذا القطاع لتقديم مساهمات لإدارة الرئيس جو بايدن من أجل إعداد تصور حول أنظمة خاصة بالذكاء الاصطناعى.

 

وتأتى هذه الخطوة لتشير إلى انفتاح البيت الأبيض على وضع بعض القواعد الأساسية فى هذا المجال، خاصة وأن الرئيس الأمريكى جو بايدن صرّح الأسبوع الماضى بأنه لا يوجد حكم نهائى فيما إذا كان الذكاء الاصطناعى يشكل خطراً على المجتمع.

 

وأوضحت وزارة التجارة فى بيان لها: "مثلما لا يتم توزيع الطعام والسيارات فى الأسواق دون ضمان مناسب للسلامة، كذلك يجب أن توفر أنظمة الذكاء الاصطناعى ضمانا للعامة والحكومة والشركات بأنها ملائمة".

 

وعلى الرغم أن الولايات المتحدة هى موطن أكبر شركات التكنولوجيا والذكاء الاصطناعى، بما فى ذلك "شركة أوبن آي" المدعومة من "مايكروسوفوت" والتى أنشأت "تشات جى بى تي"، إلا أنها متأخرة دولياً فى مجال الأنظمة التى ترعى القطاع.

 

فى حين دراسة امريكا للأمر كانت أوروبا أسرع فى خطواتها نحو تقنين الذكاء الاصطناعى، حيث وافقت لجنة رئيسيّة من المشرّعين فى البرلمان الأوروبى على أوّل أنظمة للذكاء الاصطناعى، ما يجعله أقرب لأن يصبح قانوناً.

 

و القانون، المعروف باسم قانون الذكاء الاصطناعى الأوروبى، هو الأوّل من نوعه لأنظمة الذكاء الاصطناعى فى الغرب.

 

ويتّخذ القانون نهجاً قائماً على المخاطر لتنظيم الذكاء الاصطناعى، حيث تتناسب التزامات النظام مع مستوى الخطر الذى يشكّله. وتحدّد القواعد أيضاً متطلبات مقدّمى ما يسمّى بالنماذج المؤسّسة، مثل "شات جى بى تي"، الذى أصبح مصدر قلق رئيسى للمنظمين، نظراً لمدى تقدّمه، والمخاوف من استبدال للعمال المهرة به.

 

ويصنّف قانون الذكاء الاصطناعى الأوروبى تطبيقات الذكاء الاصطناعى إلى أربعة مستويات من المخاطر: مخاطر غير مقبولة، ومخاطر عالية، ومخاطر محدودة، ومخاطر ضئيلة أو معدومة.

وسوف يتمّ حظر تطبيقات المخاطر غير المقبولة تلقائيّاً، وتشمل هذه التطبيقات، أنظمة الذكاء الاصطناعى التى تستخدم تقنيات خادعة لتشويه سلوكيات البشر، وأنظمة الذكاء الاصطناعى التى تستغل الضعف لدى الأفراد أو مجموعات محدّدة، وأنظمة التصنيف البيومترية على أساس السمات أو الخصائص الحسّاسة.

 

كذلك اتخذت الصين نفس التوجه حيث أعلنت السلطات الصينية أنها ستفرض "تقييما أمنيا" على الأدوات التى يتم تطويرها فى الصين على أساس الذكاء الاصطناعى مثل "ChatGPT".

 

وأصدرت السلطات مسودة للائحة التقييمات، وكشفت وثيقة من إدارة الفضاء الإلكترونى الصينية: "قبل تقديم الخدمات للجمهور باستخدام منتجات الذكاء الاصطناعى التوليدية، يجب فحصها أمنيا من إدارات تنظيم الإنترنت".

 

وفى فبراير الماضى حجبت الحكومة الصينية وصول مواطنيها إلى تطبيق ChatGPT الذى يعد من بين أشهر التطبيقات المستخدمة لخوارزميات الذكاء الاصطناعى، بسبب مخاوف من احتمالية نشر ما تراه الحكومة الصينية "معلوماتٍ مضللة" تعكس وجهة النظر الأمريكية فيما يتعلق بالصين.

 

ولا يتوفر تطبيق (ChatGPT) بشكل رسمى فى الصين، إلا أن بعض الأشخاص وجدوا طرقاً لاستخدامه، مثل استخدام خوادم VPN والبرامج الخاصة الصادرة من قبل مطورين مستقلين تسمح بتشغيله فى البلاد.

 

 ووفقاً لصحيفة Nikkei Asia، فإن السلطات الصينية قد أبلغت الشركات التقنية الصينية الرئيسية، ومنها Tencent التى تمتلك تطبيق WeChat، بقطع الوصول إلى هذه البرامج.


الأكثر قراءة



print