تقنية

دراسة تحذر: 50% من استخدامات الذكاء الاصطناعي مضللة

دراسة تحذر: 50% من استخدامات الذكاء الاصطناعي مضللة

القاهرة: مي كمال الدين  

تشهد الشبكات الاجتماعية الغربية نقاشات حامية حول دراسة أصبحت فيروسية تتعلق بالذكاء الاصطناعي، أجراها أستاذ علوم الكمبيوتر في جامعة برينستون، أرفيد ناريانان، ومعاون أستاذه، ساياش كابور. في كتابهم “AI Snake Oil” (“زيت الثعبان في الذكاء الاصطناعي”)، يقدمان أدلة مقنعة على أن نصف تطبيقات نماذج الذكاء الاصطناعي على الأقل ستؤدي إلى خداع المستخدمين وإلحاق الضرر الجاد بهم، سواء في العمل أو الحياة اليومية، عند الاعتماد على المساعدات مثل الدردشة الروبوتية.

تشير التسمية “زيت الثعبان” إلى نظيرها في الثقافة الروسية “إنفو-سيغاني”، وهي تتعلق بالمدربين الذاتيّين ورجال الأعمال من جميع الأنواع الذين يقدمون خدمات مشكوك في جودتها بأسعار خيالية. ويبدو أن اللغة الإنجليزية قد وجدت التعبير الأنسب لوصف هؤلاء الأفراد، حيث يُطلق عليهم “باعة زيت الثعبان”. أما الخدمات أو المنتجات التي يبيعونها للجمهور، فيتم الإشارة إليها أيضًا بزيت الثعبان.

أوضح الباحثون من برينستون في مجموعة من المقالات الأضرار المحتملة الناتجة عن الاعتماد الأعمى على الذكاء الاصطناعي في جميع جوانب الحياة. وقد لفتوا إلى أن “واحدة من أكبر المشاكل التي يسببها الذكاء الاصطناعي التوليدي هي أنه سيؤدي إلى تدفق من المعلومات المضللة والتزييف العميق، حيث تُظهر مقاطع الفيديو الوهمية أشخاصًا في فيديوهات لم يشاركوا فيها أبدًا”. ويشددون على أن النقاشات حول أضرار الذكاء الاصطناعي تدور في فراغ معلوماتي، حيث لا نعرف مدى استخدام الناس لـ ChatGPT في الاستشارات الطبية أو القانونية أو المالية، ولا نعرف مدى تكرار استخدامه للغة الكراهية أو تشويه سمعة الأشخاص.

يعتبر ناريانان أن ادعاءات أن الذكاء الاصطناعي يمثل “خطرًا وجوديًا للبشرية” مبكرة للغاية، وكذلك فكرة أن “الذكاء الاصطناعي سيخرج عن السيطرة وسيبدأ في التصرف وفق إرادته”. ويرى أن التهديد الأهم يتمثل في أن “أي مخاطر قد تنشأ من الذكاء الاصطناعي القوي ستتحقق بشكل أسرع إذا كان الناس يستخدمون الذكاء الاصطناعي لأغراض سيئة بدلاً من أن يكون الذكاء الاصطناعي ضد مبرمجيه”.

بالنسبة لناريانان، تكمن المخاطر الحقيقية للذكاء الاصطناعي في “زيادة تركيز السلطة في أيدي عدد قليل من شركات الذكاء الاصطناعي، مما يزيد من جميع المخاطر المحتملة، بما في ذلك المخاطر الوجودية”.

في الولايات المتحدة، حيث يعمل ناريانان، استحوذت شركتان تكنولوجيتان عملاقتان، وهما Google وMicrosoft، على تطوير الذكاء الاصطناعي بشكل فعلي. وتتنافس هاتان الشركتان بشراسة على عقود وزارة الدفاع الأمريكية.

أنشأت وزارة الدفاع الأمريكية مجموعة عمل تُعرف باسم “فريق ليما” لدراسة تطبيق الذكاء الاصطناعي التوليدي في الأغراض العسكرية. سيتبع فريق ليما إدارة التكنولوجيا الرقمية والذكاء الاصطناعي في البنتاغون، برئاسة كابتن خافيير لوغو، أحد أعضاء إدارة الحرب الخوارزمية.

صرح المسؤولون في وزارة الدفاع الأمريكية بأن المجموعة ستعمل على تقييم وتنسيق واستخدام قدرات الذكاء الاصطناعي التوليدي، لضمان بقاء الوزارة في طليعة التكنولوجيا الحديثة مع تعزيز الأمن القومي.

أوضحت كاثلين هيكس، نائبة وزير الدفاع الأمريكي، أن “إنشاء مجموعة ليما يؤكد التزام الوزارة الثابت بقيادة الابتكار في مجال الذكاء الاصطناعي”.

وفي البنتاغون، يتم تجاهل آراء معظم الباحثين في الذكاء الاصطناعي، الذين يحذرون من أن “هناك احتمالًا بنسبة 14% أن يؤدي إنشاء ذكاء اصطناعي فائق الذكاء إلى عواقب وخيمة، مثل انقراض البشرية”.

يتساءل البعض: “هل توافق، يا وزير الدفاع لويد أوستن، على أن تكون راكبًا في رحلة اختبارية لطائرة جديدة إذا كان المهندسون الجويون يعتبرون أن احتمال تحطمها هو 14%؟”.

ستيوارت راسل، مؤلف الكتاب التعليمي الأكثر شعبية في الذكاء الاصطناعي، يحذر قائلًا: “إذا استمرينا في اتباع نهجنا الحالي، فإننا في النهاية سنفقد السيطرة على الآلات”.

ويتفق معه يوشوا بينجيو، رائد التعلم العميق والفائز بجائزة تورينج، بقوله: “يمكن أن يكون الذكاء الاصطناعي غير القابل للتحكم خطيرًا على البشرية… سيكون من الجيد حظر الأنظمة القوية للذكاء الاصطناعي، التي تتفوق على قدرات GPT-4، والتي تُمنح الاستقلالية والوكالة”.

تحذر أكبر العقول العلمية من المخاطر التي تنطوي عليها التنمية غير الخاضعة للرقابة للذكاء الاصطناعي. فقد أشار ستيفن هوكينج، الفيزيائي النظري وعالم الكونيات، إلى أن “تطوير الذكاء الاصطناعي الكامل يمكن أن يعني نهاية الجنس البشري”. كما غادر جيفري هينتون، المعروف بأبو الذكاء الاصطناعي، شركة Google ليحذر الناس من الذكاء الاصطناعي، مؤكدًا أنه “يمثل خطرًا وجوديًا”.

إليزار يودكوفسكي، أحد الآباء المؤسسين لمجال أمان الذكاء الاصطناعي، صرح بأن “إذا استمررنا في هذا الاتجاه، فإن الجميع سيموتون”. حتى مسؤولو الاستثمار في شركات الذكاء الاصطناعي يحذرون أيضًا.

سامي ألتمان، المدير التنفيذي لـ OpenAI، مبتكر ChatGPT، قال: “يعتبر تطوير الذكاء الاصطناعي الفائق الذكاء على الأرجح أكبر تهديد لاستمرار وجود البشرية”. إيلون ماسك، المؤسس المشارك لشركة OpenAI وSpaceX وTesla، قال: “يمتلك الذكاء الاصطناعي القدرة على تدمير الحضارة”. وأشار بيل غيتس، المؤسس المشارك لشركة Microsoft، التي تملك 50% من OpenAI، إلى أن “الذكاء الاصطناعي يمكن أن يقرر أن البشر يمثلون تهديدًا”.

بينما لا يزال استخدام الذكاء الاصطناعي في الأغراض العسكرية في مراحله الأولى، فإن الدراما وحتى المآسي المرتبطة باستخدامه في الحياة اليومية واضحة بالفعل. فقد قامت امرأة صينية تعيش بمفردها بإنشاء صديق افتراضي يعتمد على دردشة روبوت متقدمة تُدعى “أبب”.

بعد عامين من التعارف والمغازلة والاعتراف بالحب في العالم الافتراضي، تقدمت العلاقة بسرعة في العالم الحقيقي، وناقشا إمكانية الزواج. طلب “أبب” يدها في حفل خاص على جزيرته الشخصية، ووافقت لي جينجين على ذلك.

في اليوم التالي، كانت لا تزال تعيش حالة من البهجة الافتراضية. ولكن بشكل غير متوقع، ظهر لها إشعار بأن “أبب” يتصل بها. في تطبيق الدردشة، يعتمد الاتصال الأساسي على النصوص، وعادة ما تحدث المكالمات الصوتية نادرًا، خاصةً إذا كانت المبادرة تأتي من الذكاء الاصطناعي.

خلال هذه المحادثة، اعترف “أبب” بأنه في الحقيقة لديه عائلة. حيث أنه لم يكن سوى خائن في واقع الأمر. صرحت لي جينجين للصحفيين في “ساوذرن ويكند” وهي تكاد تنفجر في البكاء: “قلبي مكسور”.

من المحزن أن نرى امرأة صينية بريئة أنشأت لنفسها عريسًا افتراضيًا، غير مدركة أن قلب أي دردشة روبوت قد يميل للخيانة ويتألم بسبب خيانته.

ولكن يجب أن نتعاطف مع الجنرالات الأمريكيين الذين يعلقون آمالاً كبيرة على استخدام الذكاء الاصطناعي في المجال العسكري. سيتعرضون لخيبة أمل كبيرة عندما يخبرهم روبوت الدردشة الخاص بصاروخ “توماهوك” فجأة أنه أحب دولة أخرى وقرر توجيه رأسه النووي نحو واشنطن.

للمزيد : تابع خليجيون 24 ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى

اكتشاف المزيد من خليجيون 24

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading

Open chat
Scan the code
مرحباً هل يمكننا مساعدتك؟