يُشكِّل الذكاء الاصطناعي محورَ التحوُّل الرقمي حول العالم؛ حيث يدفع عجلة الابتكار، ويُعيد تعريف معايير الكفاءة والخدمات في القطاعات كافة، كما تُظهر تطبيقاته قدرةً فائقةً على تحليل البيانات الضخمة، وأتمتة العمليات، واتخاذ القرارات المستنيرة، مما يسهم في رفع الإنتاجية وتخفيض التكاليف، كما يُسهِّل الذكاء الاصطناعي من تقديم خدمات مُخصَّصة وسريعة، ويدعم صناعة السياسات القائمة على الأدلة، مما يجعله ركيزة أساسية لبناء مدنٍ ذكية، ومجتمعات مستدامة.
إلا أن هذه الإمكانات الهائلة تقترن بمسؤوليات أخلاقية وقانونية كبيرة؛ فالتعامل مع البيانات الشخصية الحساسة، وما يُثار حول احتمالية وجود تحيُّزٍ خفي في الخوارزميات الخاصة بالذكاء الاصطناعي التوليدي، والتبعات القانونية للقرارات الآلية، تتطلب جميعها وضع أطر تنظيمية رصينة. ولذلك، فقد أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، وثيقة مبادئ استخدام الذكاء الاصطناعي التوليدي للعموم وللجهات الحكومية، بحيث تتوافق هذه المبادئ مع الأنظمة والسياسات في المملكة العربية السعودية، بما في ذلك الأنظمة والسياسات المتعلقة بحوكمة البيانات، والخصوصية، والأمن، والمِلكية الفكرية، وحقوق الإنسان.
تعريف الذكاء الاصطناعي التوليدي:
يُعَدُّ الذكاء الاصطناعي التوليدي -وفقًا لوثيقة المبادئ سالفة الذكر- نموذجًا لتعلُّم الآلة، يمكنه إنشاء أمثلة جديدة مشابهة لمجموعة بيانات التدريب، يعمل عن طريق معالجة الأوامر التي يقدمها المستخدمون، حيث يؤدي مهامَّ تتطلب قدرات معرفية بشرية، بما في ذلك الاستجابة لصياغة الأوامر اللفظية أو المكتوبة، والتعلُّم وحل المشكلات.
ويُعَدُّ الذكاء الاصطناعي التوليدي جزءًا فرعيًا من الذكاء الاصطناعي، حيث يمكنه إنشاء محتوى جديد، بما في ذلك النصوص، والصور، والأصوات، والرموز، ومقاطع الفيديو، وغيرها (1)، وهو الآن جزء لا يتجزَّأ من قطاعات عِدَّة، وعلى رأسها قطاع التعليم والبحث العلمي (2).
مبادئ استخدام الذكاء الاصطناعي التوليدي:
يتعيَّن على المطوِّرين، والمستخدمين، والجهات الحكومية -في جميع مراحل دورة حياة هذه الأدوات- الالتزام بهذه المبادئ عند التعامل مع الذكاء الاصطناعي التوليدي؛ لتعظيم فوائدها، وتفادي مخاطرها، وتتمثل هذه المبادئ فيما يلي:
- النزاهة والإنصاف:
يركز هذا المبدأ على التأكد من عدم تحيُّز المحتوى الذي يولِّده الذكاء الاصطناعي، بحيث يؤدي هذا المحتوى إلى تمييز سلبي ضد أفراد، أو جماعات، أو فئات محددة، بل وذهبت الوثيقة إلى ضرورة التأكد من عدم إغفال المحتوى لتمثيل فئات المجتمع.
ويتحقق ذلك عن طريق اختبار نماذج الذكاء الاصطناعي؛ للتأكد من خُلوِّ الأكواد والخوارزميات الخاصة بالذكاء الاصطناعي من أي تحيُّزٍ أو تمييزٍ، فضلًا عن فحص البيانات المستخدمة لتدريب الذكاء الاصطناعي وفهمها، والعمل على نشر الوعي بشأن التحيُّز، ومكافحة العنصرية والتمييز (3).
أما فيما يخص العاملين في الجهات الحكومية، فيتعيَّن عليهم تعلُّم كتابة الأوامر الخاصة بالذكاء الاصطناعي، بشكل يضمن إنشاء محتوى خالٍ من التحيُّزات، على أن تلتزم الجهات الحكومية بتدريبهم على ذلك (4).
- الموثوقية والسلامة:
يُشير مصطلح “موثوقية أنظمة الذكاء الاصطناعي” إلى مدى الثقة في قوة هذه الأنظمة وطريقة عملها.
أما السلامة فتتمثل في مدى أمان أنظمة الذكاء الاصطناعي، وضمان أنها لا تُشكِّل خطرًا على المجتمع والأفراد، ويتحقق ذلك عن طريق تصميم وتطوير الأنظمة؛ لتكون قادرة على تحمُّل حالات عدم اليقين وعدم الاستقرار، والتأكد من امتلاك أنظمة الذكاء الاصطناعي التوليدي خيار تفعيل الرقابة البشرية، وكذلك تنبيه المستخدمين بتحديات الموثوقية المحتملة، مع إمكانية التحقق من المحتوى من مصادر أخرى. وأخيرًا مراجعة المحتوى؛ للتأكد من دقته وسياقه العام؛ لمنع نشر معلومات خاطئة (5).
وتلتزم الجهات الحكومية بالتدقيق في محتوى الذكاء الاصطناعي التوليدي؛ للتأكد من دقته وملاءمته للسياق؛ لمنع نشر المعلومات الخاطئة (6).
- الشفافية والقابلية للتفسير:
يتعيَّن بناء أنظمة الذكاء الاصطناعي التوليدي بدرجة عالية من الوضوح والقابلية للتفسير، مع إمكانية تتبع مراحل اتخاذ القرارات، والمنطق الذي تبني عليه تلك الأنظمة محتواها. ويتحققُ ذلك من خلالِ الإفصاحِ الصريحِ للمستخدمينَ عند الاعتمادِ على التقنياتِ الذكيةِ في التواصلِ معهم، وتقديم قنوات اتصال بديلة للمستخدمين الذين يفضِّلون التفاعلات البشرية، واستخدام علامات مميزة لتحديد المحتوى الناتج عن الذكاء الاصطناعي التوليدي (7).
- المساءلة والمسؤولية:
يتحمَّل مُطوِّرو ومُصمِّمو أنظمة الذكاء الاصطناعي التوليدي “المسؤولية الأخلاقية” عن قرارات هذه الأنظمة، والتي قد تؤدي إلى مخاطرَ محتملة، وآثارٍ سلبية على المجتمع، وكذلك الآثار القانونية للمحتوى الصادر عن تلك الأنظمة، خاصة فيما يتعلق بمجالات انتهاك الملكية الفكرية، والبيانات الشخصية، وحقوق الإنسان.
ويكون ذلك عن طريق إتاحة إمكانية التدخل البشري في أنظمة الذكاء الاصطناعي، وزيادة جودة البيانات المستخدمة في توليد المحتوى، والالتزام بالأنظمة ذات الصلة، كنظام حماية البيانات الشخصية الصادر بالمرسوم الملكي رقم (م/19) وتاريخ 9/2/1443هـ، والأنظمة المتعلِّقة بالمِلكية الفكرية والصناعية، كنظام براءات الاختراع والتصميمات التخطيطية للدارات المتكاملة والأصناف النباتية والنماذج الصناعية، الصادر بالمرسوم الملكي رقم (م/27) وتاريخ 29/5/1425هـ، ونظام حماية حقوق المؤلف الصادر بالمرسوم الملكي رقم (م/41) وتاريخ 2/7/1424هـ (8).
- الخصوصية والأمن:
يتعين تطوير واستخدام أنظمة الذكاء الاصطناعي التوليدي بصورة تضمن حماية البيانات التي تجمعها لتقديم محتواها، وبشكل يتوافق مع متطلبات الأمن السيبراني، ويتحقق ذلك من خلال تطبيق تدابير الحماية والأمن الكافية عند استخدام الأنظمة، والالتزام الصارم بأحكام نظام حماية البيانات الشخصية، وتقييم المخاطر الناتجة عن استخدام الذكاء الاصطناعي، وفقًا لمبادئ أخلاقيات الذكاء الاصطناعي الصادرة عن الهيئة السعودية للبيانات والذكاء الاصطناعي، وتصميم الأنظمة وفق منهجية تراعي آليات الخصوصية والأمان (9).
كما يجب على العاملين في الجهات الحكومية، عدم إدخال أي بيانات تصنَّف على مستوى (مقيّد) فأعلى (مقيد، سِرِّيّ، وسِرِّيّ للغاية) في أنظمة الذكاء الاصطناعي التوليدي، والتحقق من سياسات الخصوصية لهذه الأدوات، ومنها بنود الإفصاح والمشاركة (10).
ويمثل توفُّر هذا المبدأ أهمية كبيرة في مجال العمل الحكومي؛ نظرًا للأضرار التي سبَّبها استخدام الذكاء الاصطناعي التوليدي في اتخاذ القرارات ذات المخاطر العالية، أو القرارات ذات الأهمية الكبيرة (11).
- الإنسانية والمنافع الاجتماعية والبيئية:
يشمل هذا المبدأ الدور الإيجابي الذي يتعيَّن على الذكاء الاصطناعي أن يلعبه في تطوير مهارات الأفراد والجهات الحكومية على حدٍّ سواء، وذلك من خلال منهجية تستند إلى حقوق الإنسان، وتعزّز من المهاراتِ البشرية (12).
أبرز مبادئ سدايا لاستخدام الذكاء الاصطناعي التوليدي
أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) وثيقة مبادئ استخدام الذكاء الاصطناعي التوليدي التي تهدف إلى تعظيم الفوائد وتفادي المخاطر المرتبطة بهذه التقنيات. وتتمثل أبرز هذه المبادئ في الآتي:
النزاهة والإنصاف
يركز هذا المبدأ على ضمان عدم تحيّز المحتوى الناتج عن الذكاء الاصطناعي وتجنب التمييز السلبي ضد أي أفراد أو فئات، مع التأكد من تمثيل جميع فئات المجتمع. ويتحقق ذلك عبر اختبار النماذج وفحص بيانات التدريب ونشر الوعي بمكافحة العنصرية.
الموثوقية والسلامة
تهدف إلى بناء أنظمة قوية وموثوقة لا تشكل خطراً على المجتمع. ويتطلب ذلك تصميم أنظمة قادرة على التعامل مع حالات عدم الاستقرار مع تفعيل الرقابة البشرية وتنبيه المستخدمين بالتحديات المحتملة ومراجعة المحتوى لضمان دقته ومنع نشر المعلومات الخاطئة.
الشفافية والقابلية للتفسير
يجب أن تُبنى الأنظمة بوضوح يتيح تتبع مراحل اتخاذ القرارات والمنطق الذي تقوم عليه. ويشمل ذلك الإفصاح للمستخدمين عند التواصل معهم عبر تقنيات ذكية وتوفير قنوات اتصال بشرية بديلة واستخدام علامات تميز المحتوى التوليدي.
المساءلة والمسؤولية
يتحمل مطورو ومصممو هذه الأنظمة المسؤولية الأخلاقية والقانونية عن النتائج والآثار السلبية المحتملة خاصة فيما يتعلق بانتهاك الملكية الفكرية وحماية البيانات الشخصية.
الخصوصية والأمن
يشدد هذا المبدأ على ضرورة حماية البيانات المجموعة وتوافقها مع متطلبات الأمن السيبراني ونظام حماية البيانات الشخصية. كما يُحظر على العاملين في الجهات الحكومية إدخال أي بيانات مصنفة كبيانات “مقيدة” أو أعلى في هذه الأنظمة.
الإنسانية والمنافع الاجتماعية والبيئية
يدعو هذا المبدأ إلى أن يكون للذكاء الاصطناعي دور إيجابي في تطوير مهارات الأفراد والجهات وفق منهجية تعزز المهارات البشرية وتستند إلى حقوق الإنسان.
تتوافق هذه المبادئ مع الأنظمة والسياسات الوطنية في المملكة العربية السعودية بما في ذلك ما يتعلق بحوكمة البيانات والخصوصية والملكية الفكرية.
الأنظمة السعودية التي تحمي الملكية الفكرية والبيانات الشخصية
تشمل الأنظمة السعودية التي تحمي البيانات الشخصية والملكية الفكرية ما يلي:
- نظام حماية البيانات الشخصية: وهو النظام الصادر بالمرسوم الملكي رقم (م/19) وتاريخ 9/2/1443هـ، والذي يهدف إلى ضمان خصوصية البيانات وحمايتها عند استخدام تقنيات الذكاء الاصطناعي.
- نظام براءات الاختراع والتصميمات التخطيطية للدارات المتكاملة والأصناف النباتية والنماذج الصناعية: الصادر بالمرسوم الملكي رقم (م/27) وتاريخ 29/5/1425هـ، ويختص بحماية الملكية الصناعية.
- نظام حماية حقوق المؤلف: الصادر بالمرسوم الملكي رقم (م/41) وتاريخ 2/7/1424هـ، ويُعنى بحماية الحقوق الأدبية والفكرية.
تلتزم مبادئ الذكاء الاصطناعي التوليدي الصادرة عن “سدايا” بالتوافق مع هذه الأنظمة لضمان المساءلة والمسؤولية القانونية عن أي انتهاكات قد تنتج عن استخدام هذه التقنيات.
الملخص
يتناول الموضوع مبادئ الذكاء الاصطناعي التوليدي التي أصدرتها الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) لضبط استخدام هذه التقنية الناشئة في القطاعين العام والخاص. يوضح النص أن هذه النماذج قادرة على ابتكار محتوى جديد يشمل النصوص والصور مما يعزز الكفاءة والابتكار الرقمي مع ضرورة الالتزام بأطر أخلاقية وقانونية صارمة. وتركز المبادئ الأساسية على ضمان النزاهة والإنصاف عبر مكافحة التحيز وتحقيق الموثوقية والسلامة من خلال الرقابة البشرية والتدقيق في دقة المعلومات. كما تشدد التوجيهات على أهمية الشفافية والمساءلة وحماية الخصوصية والأمن السيبراني خاصة عند التعامل مع البيانات الحكومية الحساسة. تهدف هذه المعايير في مجملها إلى تسخير الذكاء الاصطناعي لخدمة المنافع الاجتماعية والإنسانية بما يتوافق مع الأنظمة الوطنية للمملكة العربية السعودية.
المصادر:
- البند (1) من مبادئ الذكاء الاصطناعي التوليدي للعموم لعام 2025م، والصادرة عن الهيئة السعودية للبيانات والذكاء الاصطناعي < سدايا | الوصول الى إصدارات سدايا>.
- بريتين شاه، الذكاء الاصطناعي ومستقبل التعليم، الناشر Jossey-Bass الطبعة الأولى في عام 2023.
- الفقرة الأولى من البند (4) من مبادئ الذكاء الاصطناعي التوليدي للعموم.
- الفقرة الأولى من البند (3) من مبادئ الذكاء الاصطناعي التوليدي للجهات الحكومية لعام 2025م، والصادرة عن الهيئة السعودية للبيانات والذكاء الاصطناعي <سدايا | الوصول الى إصدارات سدايا>.
- الفقرة الثانية من البند (4) من مبادئ الذكاء الاصطناعي التوليدي للعموم.
- الفقرة الثانية من البند (3) من مبادئ الذكاء الاصطناعي التوليدي للجهات الحكومية.
- الفقرة الثالثة من البند (4) من مبادئ الذكاء الاصطناعي التوليدي للعموم.
- الفقرة الرابعة من البند (4) من مبادئ الذكاء الاصطناعي التوليدي للعموم.
- الفقرة الخامسة من البند (4) من مبادئ الذكاء الاصطناعي التوليدي للعموم.
- الفقرة الخامسة من البند (3) من مبادئ الذكاء الاصطناعي التوليدي للجهات الحكومية.
- فنسنت ستراوب، ديبوراه مورجان، جوناثان برايت وهيلين مارجتس، استخدام الذكاء الاصطناعي في الحكومة، بحث منشور في مجلة Government Information quarterly، مجلد (40) العدد (4)، في عام 2023.
- الفقرتان السادسة والسابعة من البند (4) من مبادئ الذكاء الاصطناعي التوليدي للعموم.