مال و أعمال

لا يجوز استخدام الذكاء الاصطناعي للتسويق المضلِّل أو للضغط على المتعاملين

أكد البنك المركزي، أنه لا يجوز للبنوك أو شركات التأمين استخدام الذكاء الاصطناعي لتسويق المنتجات المختلفة بطريقة مضللة أو للضغط على العملاء، مشدداً على حق المستهلك في طلب المراجعة البشرية وتوفير آليات واضحة للشكاوى، بحسب التفاصيل التي نشرها البنك المركزي، أمس، على موقعه الإلكتروني ضمن مذكرة توجيهية لحماية المستهلك وضمان الاستخدام المسؤول للذكاء الاصطناعي في القطاع المالي.

وأضاف أن تطبيق الذكاء الاصطناعي في القطاع المالي يجب ألا يؤدي إلى نتائج تمييزية، داعيا البنوك إلى تشغيل أنظمة الذكاء الاصطناعي تحت إشراف بشري فعال، خاصة في القرارات المؤثرة.

وعرّف البنك المركزي “القرار عالي التأثير” بأنه أي قرار يتم اتخاذه باستخدام الذكاء الاصطناعي ويؤثر بشكل جوهري على وصول العميل إلى منتج أو خدمة مالية، مثل الموافقة على قرض أو مطالبة تأمين.

وتابع: “يتحمل مجلس الإدارة والإدارة العليا المسؤولية الكاملة عن أنظمة الذكاء الاصطناعي ونتائجها، بما في ذلك اختيار النماذج وتطويرها ونشرها والمساءلة عنها وتوفير الموارد البشرية المناسبة والإشراف والمراقبة والإدارة المستمرة لها، كما يجب إعداد تقارير دورية وطلبها من الإدارة المعنية إلى الإدارة العليا ومجالس الإدارة تتناول الأداء والمخاطر”.

وقال: “يجب على مجالس الإدارة والإدارة العليا التأكد من أن لجان المخاطر ووظائف الرقابة (مثل الامتثال والتدقيق الداخلي وإدارة المخاطر) تفهم العمليات التي يقودها الذكاء الاصطناعي، وتكون قادرة على مراجعة النتائج والتشكيك فيها عندما يكون ذلك مناسباً، مع اعتبار اعتماد ونشر واستخدام الذكاء الاصطناعي جزءاً لا يتجزأ من إطار إدارة المخاطر. ويجب الاحتفاظ بسجل (مخزون) لجميع نماذج أو أنظمة أو تقنيات الذكاء الاصطناعي التي يتم تطويرها أو نشرها، مع تضمين تدابير الامتثال والتدريب ضمن جميع الوظائف المسؤولة عن استخدامها وإدارتها، والمراقبة بما يتماشى مع معايير إدارة النماذج وإرشادات إدارة النماذج الصادرة عن البنك المركزي (2022)”.

وأضاف: “يجب أن تخضع أنظمة الذكاء الاصطناعي لاختبارات دورية (مرة واحدة سنويًا أو في كل مرة يتم فيها ترقية النموذج أو تعديله بشكل كبير أو تقديم نموذج جديد) لاكتشاف ومعالجة أي تحيزات مدمجة غير مقصودة أو نتائج تمييزية. ويجب أن يعكس نشر الذكاء الاصطناعي المعايير الأخلاقية للمنظمة وقواعد السلوك. ويجب أيضًا أن تكون القرارات المتخذة أو المدعومة بالذكاء الاصطناعي متسقة مع واجب التصرف بأمانة ونزاهة وبما يحقق مصلحة المستهلكين”.

وشدد البنك المركزي على أن مستوى التدخل البشري يجب أن يتناسب مع مستوى المخاطر المحتملة على المستهلك، ويحق للمستهلك طلب مراجعة بشرية أو تفسير للقرارات الصادرة عن الذكاء الاصطناعي، كما يجب توفير الترتيبات البديلة عند رفض الخضوع للقرار الآلي. ويجب الحفاظ على قنوات واضحة وسهلة لتقديم الشكاوى، ويجب معالجتها بكفاءة وسرية وفي أقصر وقت ممكن. يجب عدم استخدام الذكاء الاصطناعي لاستهداف العملاء بمنتجات غير مناسبة، أو ممارسات بيع ضاغطة، أو تسويق مضلل.

وشدد البنك المركزي على أنه عند الاعتماد على مقدمي الخدمات الخارجيين أو مقدمي الخدمات السحابية، يجب إجراء العناية الواجبة فيما يتعلق بالحوكمة والأمن وحماية البيانات، والتأكد من إدراج الأحكام التعاقدية التي تسمح بحقوق التدقيق، والوصول إلى المعلومات، والامتثال لمتطلبات البنك المركزي. وينبغي توثيق مبرر اختيار المزود، وإجراء مراجعات سنوية للأمن السيبراني من قبل أطراف مستقلة، والاحتفاظ بسجل لجميع النماذج، بما في ذلك تلك التي تستضيفها أطراف ثالثة، ويجب تجنب الاعتماد المفرط على مزود واحد إن أمكن.

وقال المصرف المركزي في بيان أصدره أمس، إنه أصدر مذكرة توجيهية بشأن حماية المستهلك وضمان الاستخدام المسؤول لتقنيات الذكاء الاصطناعي والتعلم الآلي من قبل المؤسسات المالية المرخصة العاملة في الدولة، في خطوة تعكس نهجه الرقابي الاستباقي ومواكبة التطورات المتسارعة في التحول الرقمي والخدمات المالية الذكية.

وتهدف المذكرة إلى وضع إطار واضح لتوجيه المؤسسات المالية نحو توظيف هذه التقنيات بطريقة آمنة ومسؤولة. وتحدد المبادئ التوجيهية مجموعة من المبادئ الأساسية التي تشكل مرجعية للاستخدام الأمثل لهذه التقنيات، وتشمل الحوكمة والمساءلة، والعدالة والحد من التحيز، والشفافية وتجنب الغموض، والإشراف البشري الفعال، بالإضافة إلى متطلبات حماية البيانات والخصوصية.

كما تتضمن المذكرة أحكاماً تتعلق بإفصاحات المستهلكين، بما يضمن وضوح المعلومات المقدمة باللغتين العربية والإنجليزية، وضمان توافر الخيارات المناسبة للاعتراض أو الانسحاب في القضايا عالية التأثير الناتجة عن القرارات الآلية.

وقال محافظ البنك المركزي خالد محمد بلعمة: إن مذكرة المبادئ التوجيهية تهدف إلى وضع إطار واضح للاستخدام المسؤول لتقنيات الذكاء الاصطناعي والتعلم الآلي في القطاع المالي، بما يعزز حماية المستهلك ويرسي مبادئ الحوكمة والشفافية، مع التأكيد على أهمية الإشراف البشري ومتطلبات حماية البيانات.

خبير: “التخصيص المفرط” في الذكاء الاصطناعي ليس في مصلحة العميل

وقال عاصم جلال، استشاري علوم الإدارة وتكنولوجيا المعلومات في شركة G&K، إن الذكاء الاصطناعي يلعب دوراً كبيراً في القطاع المصرفي، وخاصة ما يسمى تقنياً (التخصيص الفائق)، أي أن البنك يستطيع تقديم خدمات تفصيلية تناسب كل عميل على حدة حسب احتياجاته، فمثلاً إذا أراد العميل الحصول على قرض، فيمكنه استخدام (التخصيص الفائق) لمعرفة القرض المناسب له، وفقاً للمعلومات والبيانات المتوفرة عنه، ولكن من ناحية أخرى، ويمكن أيضًا تعبئة تلك المعلومات بطريقة ما للضغط على العميل، أو لتسويقها بطريقة تكون في مصلحة البنك وليس في مصلحة العميل.

وأضاف جلال: «تتيح هذه الميزة للبنوك إنشاء نموذج مناسب لكل عميل حصراً، حتى لو كان عدد العملاء بالملايين»، لافتاً إلى أن «التخصيص المفرط» يعتمد على بيانات العميل، وبالتالي يستطيع فريق التسويق في البنوك استخدام هذه البيانات والمعلومات لفهم نقاط ضعف العميل ومعرفة احتياجاته، وبالتالي الضغط عليه لقبول منتجات قد لا يحتاجها أو لا تناسبه.

• دعا البنك المركزي البنوك إلى تشغيل أنظمة الذكاء الاصطناعي تحت إشراف بشري فعال، خاصة في القرارات المؤثرة.

للمزيد : تابع خليجيون 24 ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر

مقالات ذات صلة

زر الذهاب إلى الأعلى