تبنيا لاستخدامها .. «سدايا» تطلق وثيقة مبادئ الذكاء الاصطناعي التوليدي

تبنيا لاستخدامها .. «سدايا» تطلق وثيقة مبادئ الذكاء الاصطناعي التوليدي

أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا" وثيقة المبادئ التوجيهية لاستخدام أدوات الذكاء الاصطناعي التوليدي (مبادئ الذكاء الاصطناعي التوليدي) لدى العموم من القطاع الخاص والقطاع غير الربحي والأفراد بغية رفع مستوى الوعي باستخدامات تقنيات الذكاء التوليدي المتعددة في مختلف مناحي الحياة، وتعد نقلة نوعية في عصرنا الحالي في قدرتها على تفاعل الآلات مع المستخدمين.
وتتمتع تقنيات الذكاء الاصطناعي التوليدي بمزايا عدة يمكن توظيفها في مختلف الأعمال، سواء على مستوى المؤسسات أو الأفراد، وانطلاقا من هذا المبدأ فقد حرصت سدايا على تعزيز الأدوار الإيجابية لاستخدامات الذكاء الاصطناعي التوليدي مع تخفيف الأخطار المرتبطة به من خلال تطبيق مبادئ الذكاء الاصطناعي، وتبني التدابير الوقائية لتفادي الوقوع في: حالات تسرب البيانات، والتضليل، والتزييف العميق، والتحيز، أو مخالفة أنظمة الملكية الفكرية، وحقوق النشر.
وأطلقت "سدايا" المبادئ الخاصة بالقطاعات الحكومية وتقدم الوثيقة المعنية بالعموم كمبادئ توجيهية تتعلق باستخدام ومعالجة البيانات في أدوات الذكاء الاصطناعي التوليدي مع أمثلة تستند إلى سيناريوهات شائعة قد تتطرق إليها الجهات، وتسلط الضوء على التحديات والاعتبارات المرتبطة باستخدام هذه التقنيات، وتتوافق الوثيقة مع الأنظمة والسياسات الحالية في المملكة وتدعم الامتثال لها بما في ذلك أخلاقيات الذكاء الاصطناعي والأنظمة المرتبطة بحوكمة البيانات والخصوصية والأمن والملكية الفكرية وحقوق الإنسان.
وتؤكد الوثيقة أهمية الالتزام بمبادئ أخلاقيات الذكاء الاصطناعي عند التعامل مع أدوات الذكاء الاصطناعي التوليدي في جميع مراحل دورة حياة هذه الأدوات من أجل تسخير فوائدها والتخفيف من المخاطر التي قد تقع -لا سمح الله- ما دعت الحاجة إلى وضع سياسات مرتبطة بأدوات محددة ومعايير أخلاقية ومسؤوليات مهنية.
وضمت الوثيقة المبادئ التي تحكم استخدام البيانات الحكومية في أدوات الذكاء الاصطناعي التوليدي، وهي: النزاهة والإنصاف، الموثوقية والسلامة، والشفافية والقابلية للتفسير، والمساءلة والمسؤولية، والخصوصية والأمن، والإنسانية، والمنافع الاجتماعية والبيئية، ودعت الجهات الحكومية إلى توخي استخدام الذكاء الاصطناعي التوليدي في عمليات اتخاذ القرارات الحاسمة، فضلا عن الالتزام الصارم بالقضاء على التحيز داخل الخوارزميات لضمان موثوقية النتائج وحمايتها من أي عواقب سلبية.
وأكدت الوثيقة جملة من المبادئ، ومنها تحقيق المنافع الاجتماعية والبيئية، التي تدعو إلى تعزيز الأثر الإيجابي والمفيد للأولويات الاجتماعية والبيئية التي يجب أن تفيد الأفراد والمجتمع ككل وتركز على الأهداف والغايات المستدامة دون أن تؤثر سلبا في الإنسان، بل تسهم في تمكينه واستكمال التقدم التقني والاجتماعي والبيئي مع السعي إلى معالجة التحديات المرتبطة بها.
كما أكدت ضرورة بناء واستخدام أدوات الذكاء الاصطناعي التوليدي، وفق منهجية عادلة وأخلاقية تستند إلى حقوق الإنسان والقيم الثقافية الأساسية من أجل إحداث أثر إيجابي على الأطراف المعنية والمجتمعات المحلية والمساهمة في تحقيق الأهداف الاستراتيجية من أجل تحقيق المصلحة العامة للبشرية وازدهارها.
وقد يترتب على استخدام تقنيات الذكاء الاصطناعي التوليدي تبعات قانونية وأخلاقية لذا شددت الوثيقة على أهمية استشارة أصحاب الاختصاص القانوني وذوي الصلة لتقييم الأخطار المرتبطة من استخدام أدوات هذه التقنيات لتفادي الوقوع في الأخطاء القانونية مع الالتزام بالتشريعات ذوات الصلة بما في ذلك نظام حماية البيانات الشخصية لضمان الامتثال وحماية حقوق المستخدم والتأكد من سلامة المحتوى الذي تم إعداده يحترم حقوق الملكية الفكرية وملتزم بحقوق النشر.
وتعد هذه الوثيقة واحدة من سلسلة الجهود المستمرة، التي تبذلها سدايا بوصفها هي المرجع الوطني للبيانات والذكاء الاصطناعي في المملكة من تنظيم وتطوير وتعامل من أجل زيادة الوعي بإمكانات تقنيات البيانات والذكاء الاصطناعي، وتوضيح أهميتهما في وقتنا الحاضر من أجل خدمة القطاعات والأفراد على حد سواء في إطار منهجية تضمن توظيفها التوظيف الأمثل لتحقيق الاستفادة منها.
والذكاء الاصطناعي التوليدي هو نموذج تعلم آلة يمكنه إنشاء أمثلة جديدة مشابهة لمجموعة بيانات التدريب، ويعد هذا النموذج جزءا فرعيا من الذكاء الاصطناعي يمكنه إنشاء محتوى جديد بما في ذلك النصوص والصور والأصوات والرموز ومقاطع الفيديو وغيرها، ويعمل عن طريق تفسير الأوامر التي يقدمها المستخدمون، ويمكنه أن يؤدي مهام تتطلب قدرات معرفية بشرية بما في ذلك الاستجابة لصياغة الأوامر اللفظية أو المكتوبة والتعلم وحل المشكلات.

الأكثر قراءة