آباء يتخوفون من «الصداقات الافتراضية» لأبنائهم مع منصات الدردشة

عبر الناس عن خوفهم من صداقتهم الافتراضية التي نشأت بين أطفالهم المراهقين والمنصات التي تدعمها الذكاء الاصطناعي ، مشيرين إلى أنهم يتفاعلون معهم بشكل دائم لأغراض الترفيه أو الاستفسار عن مسائل الحياة المختلفة ، أو لمساعدتهم في دراساتهم ، أو من أجل توجيههم إلى التصرف بشكل صحيح في مواقف مختلفة.
لقد أكدوا على أهمية تحديد الضوابط لاستخدام مثل هذه المنصات حتى لا يتحكموا في عقول الأطفال وطريقة تفكيرهم ، مع تثقيف الأطفال بالطريقة التي يتعاملون بها مع التكنولوجيا الحديثة حتى لا يكشفوا عن بياناتهم وأفكارهم الشخصية ، والتي تمكن المنصات من تشكيل فكرة شاملة عن حياتهم الشخصية.
حذر المتخصصون في مجال الأمن السيبراني ، في بيانات “الإمارات اليوم” ، من خطر مشاركة البيانات الشخصية والمالية الحساسة عند استخدام تطبيقات الدردشة التي تتم الدردشة ، لأنها قادرة على تشكيل رؤية شاملة لحياة الشخص ، ويمكن استغلالها لأغراض تجارية وتسويقية ، والتي تشكل مخاطر محتملة على الأمان والسلامة.
كشف الناس لـ «الإمارات اليوم» الاستخدام المتزايد لأطفالهم لبرامج الدردشة التي تدعمها الذكاء الاصطناعي في حياتهم اليومية ، أثناء دراسة واجباتهم المدرسية وحلهم ، مشيرين إلى أنهم فوجئوا بأن هذه المنصات تعرف كل منصات صغيرة وكبيرة عن أطفالهم.
وأشاروا إلى أنهم لا يدركون حجم المخاطر الناتجة عن الكشف عن البيانات الشخصية ، ولكن من المهم زيادة الوعي بهذه الفئة ، وأهمية الخصوصية ، والتعامل مع الحذر والحذر من برامج الدردشة والمنصات ، دون الكشف عن البيانات الشخصية ، أو بديلاً للآباء في التوجيه والإرشاد في الحياة اليومية.
“تشهد حياتنا اليومية وجودًا متزايدًا لبرامج ومنصات الذكاء الاصطناعي ، بدءًا من المساعدة في المهام الأكاديمية ، إلى الكتابة الإبداعية والتعاملات غير الرسمية.
وأضاف أنه على الرغم من أن هذه الأدوات متوفرة وسهلة الاستخدام ، فمن الضروري معرفة كيفية عملها ، خاصة فيما يتعلق بالتعامل مع البيانات الشخصية.
أوضح سولنج ما يحدث لمعلوماتنا التي نشاركها ، مع الإشارة إلى أنه “عندما يتفاعل المستخدمون مع منصات دردشة الذكاء الاصطناعي ، قد يتم تخزين البيانات التي يدخلونها ، وفي بعض الحالات تتم مراجعتها لتحسين أداء النظام وموثوقيته.”
وذكر أنه «على الرغم من أن مؤسسات مثل Open AI تطبق سياسات خاصة لحماية بيانات المستخدم ، إلا أن أفضل وأفضل الممارسات لا تزال ، على افتراض أنه قد يتم الاحتفاظ بأي معلومات مشتركة أو مرجعتها ، حتى لو لم تكن مرتبطة بشكل مباشر بأشخاص معينين.
وحذر من خطر المبالغة في مشاركة المعلومات ، حيث أن “العديد من المستخدمين ، وخاصة الأصغر سنا ، يكشفون عن التفاصيل الشخصية عن غير قصد ، مثل الأسماء والمؤسسات التعليمية ومعلومات الاتصال أو الأفكار الشخصية أثناء التفاعل مع هذه البرامج والمنصات ، وقد يكون هذا النوع من المعلومات حساسًا ، وبمجرد مشاركته على الإنترنت ، يصبح من الصعب التحكم في انتشاره واستخدامه ، والذي يشكل المخاطر المحتملة.
وأكد على أهمية التحقق من المعلومات ، وإدراك أن برامج الدردشة التي تم تحديدها للذكاء الاصطناعي لا تتمتع بمعرفة واقعية ، لأنها تولد استجابات تستند إلى الأنماط والبيانات المستخرجة من مجموعات التدريب التي قد تتضمن معلومات غير دقيقة أو محتوى قديم أو تحيزات متأصلة ، لذلك يجب على المستخدم التحقق من المعلومات المهمة أو الحساسة ، باستخدام مصادر موثوقة وموافقة عليها.
وذكر أن «أفضل الممارسات لاستخدام برامج الدردشة الذكية الاصطناعية بطريقة مسؤولة ، بما في ذلك تجنب مشاركة المعلومات الشخصية ، والتحقق من المعلومات المستخدمة لأغراض تعليمية أو مهنية ، ورؤية سياسة الخصوصية للمنصة المستخدمة.
قال خبير الأمن السيبراني ، عبد نور سامي ، إن هناك مجموعة من الطرق التي تتيح الذكاء الاصطناعي من الوصول إلى بيانات المستخدم ، أولها الاستخدام المباشر والتفاعل مثل الذكاء الاصطناعي القائم على المعالجة اللغوية ، على سبيل المثال ، يتم تخزينها على ذلك ، “يتم تخزين هذه البيانات ، وتخزينها ،”. بطريقة أو بأخرى.
وأكد أن “المستخدم يجب أن يكون حذرًا ولا يشارك بياناته وصوره وخصوصيةه ، لأنه يخزن بعيدًا جدًا ، وقد يتسرب في بعض النواحي.”
قال: «من الضروري عدم مشاركة أي مسألة نخشى من نشرها ، كما هو الحال بالنسبة للمعلومات الأساسية مثل الاسم والعنوان الرئيسي ، وعنوان المنزل ، وشبكة الهاتف والشبكة ، والعنوان الافتراضي للهاتف ، يتم الحصول عليها بأي طريقة ، ومن الممكن إدخال الإعدادات (الدردشة bt) ، وإغلاق خيار مشاركة البيانات لغرض تحسين جودة الخدمة ، ولكن هذا الخيار سوف يخفي البيانات فقط والبيانات التي يمكن أن يتم عرضها بشكل جزئي فقط. الغرض من تسهيل الخدمة ، وهل يمكن للمستخدم أن يكون لدى المستخدم سؤال (دردشة GBT) ببساطة: ماذا تعرف عني؟ قل لي كل المعلومات ، أو ماذا تعرف عن شخصيتي؟ نستنتج هنا أن أذكى البرامج على وجه الأرض لا يعتمد على البيانات التي نشاركها مع العبارة الصريحة ، ولكن يتم تحليل شخصياتنا وبياناتنا وتفاعلنا لإبرام أشياء أخرى.
أوضح Abdel Nour أن الطرق الأخرى للكشف عن المعلومات الشخصية تشمل مواقع وإعلانات ودية ، حيث يتم تفضيل تفضيلات الشخص وميله في تصفح المواقع الإلكترونية والخدمات الأخرى ، وأن البيانات بين هذه الخدمات والشركات تتم مشاركتها بشكل تعاوني من أجل أغراض الربح ، ولتحسين الخدمات والخدمات. بالنسبة للهاتف ، يجب أن نختار الإعدادات بعناية ، ماذا نسمح له برؤيته؟ الصور؟ الموقع الجغرافي؟ سلطات الاتصال؟ كل هذه يجب أن تختار.
وقال جاك فليتشر ، المدير الأول للاستشارات التكنولوجية ، في شركة “FTI Conselting” ، جاك فليتشر ، إلى أن أدوات الذكاء الاصطناعي قد حققت انتشارًا واسعًا ، وتستخدم في مهام مختلفة ، بدءًا من التخطيط لقضاء عطلة مثالية ، لصياغة رسائل عمل صعبة.
أشار فليتشر إلى أن الاستخدام المتسارع للذكاء الاصطناعي قد أحدث تغييرًا أساسيًا في الطريقة التي نعمل بها ، حيث نجحت العديد من الشركات في نشر أدوات الذكاء الاصطناعي الداخلي ، والتي أثرت بشكل إيجابي على الإنتاجية والتنظيم ، ولكنها تمثل تهديدًا حقيقيًا ، قد تمثل أدوات الذكاء الاصطناعية التي لا تتم الموافقة عليها في بيئات العمل دون الحصول على موافقة على قسم تكنولوجيا المعلومات ، والتهديدات للعديد من المخاطر ، وربما تمثلها من أجل التهديد. المعايير ، فإنه يكشف عن معلومات تجارية حساسة.
وأشار إلى أن «أحد الأعمدة الرئيسية في العديد من قوانين خصوصية البيانات هو مبدأ إعادة استخدام البيانات والشفافية ، وأن هذا المبدأ يعتمد على حقيقة أنه لا يجوز استخدام البيانات الشخصية لغرض ثانوي لم يتم الكشف عنها للفرد ، عند توفير البيانات أو منح الموافقة على استخدامها. وبالمثل ، فإن قوانين خصوصية البيانات غالباً ما تفرض قيودًا على الهيئات التي يمكن إرسال البيانات الشخصية إليها ، في حين أن بعض أدوات الذكاء الاصطناعي قد تخزن البيانات في البلدان التي لا تملك معايير قوية لحماية البيانات وأمنها ، وإدخال المعلومات المحددة في إحدى هذه الأدوات قد تعرض المؤسسة لانتهاك اللوائح واللوائح الخاصة بحماية البيانات والأمن السيبراني ».
وأشار إلى أن «استخدام أدوات الذكاء الاصطناعي ينطوي على عدد كبير من المخاطر الأمنية. على الرغم من أن أدوات الذكاء الاصطناعي المتقدمة المعروفة بموثوقيتها قد تستخدم ضوابط أمان قوية ، فإن هذا لا يمنع تسرب أو إساءة استخدام الأهمية الحساسة أو التجارية ، بما في ذلك معلومات الملكية الفكرية.
وتابع قائلاً: “ما الذي يجعل تعقيد هذه المشكلة هو أن قدرة الفرق المسؤولة على مراقبة هذا النوع من تسرب البيانات ، ويمنعها بشكل فعال ، تصبح أكثر صعوبة إذا لم يتم استخدام أجهزة الشركة ، ولجأ المستخدم إلى أدوات الذكاء الاصطناعي التي لم تتم الموافقة عليها في بيئة العمل”.
وأضاف: «لمعالجة هذا التحدي ، ركزت العديد من مبادرات الامتثال على تشجيع التحولات السلوكية الإيجابية من خلال تدريب الموظفين على مخاطر استخدام أدوات الذكاء الاصطناعي غير المصرح بها ، وتذكيرهم بالمبادئ الأساسية للسياسات الرئيسية ، مثل سياسات الاستخدام المقبولة. في أقرب وقت ممكن ، يجب توجيه الموظفين نحو أدوات الذكاء الاصطناعي الداخلي ، وتشجيعهم على استخدام أجهزة الشركة لجميع المهام المتعلقة بالعمل. “
للمزيد : تابع خليجيون 24 ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر