الصين تُخطط لتشديد الرقابة على أنظمة الذكاء الاصطناعي التي تحاكي البشر
أعلنت السلطات الصينية عن نيتها تعزيز القواعد المنظمة لاستخدام أنظمة الذكاء الاصطناعي المصممة لمحاكاة البشر، في خطوة تهدف إلى ضمان أن تكون التطبيقات آمنة، أخلاقية، وشفافة أمام المستخدمين. وجاء ذلك عبر بيان صادر عن هيئة مراقبة الفضاء السيبراني الصينية، نشر على موقعها الرسمي يوم السبت، مؤكدة أن الهدف هو حماية المستخدمين والمجتمع من أي مخاطر محتملة قد تنشأ عن الاعتماد المفرط على تقنيات الذكاء الاصطناعي.
وأوضحت الهيئة أنه من الضروري أن يتم إعلام المستخدمين في جميع الخدمات التي تعتمد على الذكاء الاصطناعي بأنهم يتفاعلون مع أنظمة اصطناعية، وذلك عند تسجيل الدخول لأول مرة، وعلى فترات متكررة تصل إلى كل ساعتين، أو عند رصد أي مؤشرات تدل على اعتماد مفرط على هذه الأنظمة. ويأتي ذلك ضمن مقترحات مفتوحة للتشاور العام حتى 25 يناير المقبل، حيث يُمكن للمواطنين والخبراء الإدلاء بملاحظاتهم حول القواعد الجديدة.
وتنص المقترحات على أن مزودي الخدمات ملزمون بتطبيق إجراءات مراجعة أخلاقية صارمة، وضمان التزام أنظمتهم بـ”القيم الاشتراكية الجوهرية”، مع منع نشر أي محتوى قد يهدد الأمن القومي أو الاستقرار الاجتماعي. ويُتوقع أن تتضمن هذه الإجراءات اختبارات للسلامة، مراجعة شاملة للبيانات، وتقييم الأثر الاجتماعي قبل إطلاق أي ميزات جديدة تحاكي القدرات البشرية.
كما أوضحت إدارة الفضاء الإلكتروني الصينية أن مزودي الخدمات سيُطلب منهم تقديم تقارير أمنية مفصلة إلى إدارة الفضاء السيبراني على مستوى المقاطعات عند إطلاق أي خدمة جديدة، وأن تقديم التقرير سيكون إلزامياً للخدمات التي يصل عدد مستخدميها المسجلين إلى مليون أو أكثر، أو للمواقع التي تحقق 100 ألف مستخدم نشط شهرياً على الأقل. وتأتي هذه الخطوة في سياق اهتمام الصين الكبير بالذكاء الاصطناعي باعتباره قطاعاً استراتيجياً لتعزيز النمو الاقتصادي، ودفع الابتكار، وتعزيز التنافسية على الصعيد العالمي، مع الحفاظ في الوقت نفسه على الأمن والاستقرار المجتمعي.




