الخميس 21 نوفمبر 2024 الموافق 19 جمادى الأولى 1446
رئيس التحرير
شيماء جلال
عاجل
تقارير

بدعم من البيت الأبيض.. دعوة "هاكرز" لاختراق قاعدة بيانات تطبيق الذكاء الاصطناعي

الرئيس نيوز

يتوجه الآلاف من الهاكرز المتسللين إلى مدينة لاس فيجاس الأمريكية في نهاية هذا الأسبوع للمشاركة في مسابقة تستهدف تطبيقات الدردشة الذكية للذكاء الاصطناعي، بما في ذلك التطبيق الأكثرشهرة "شات جيه بي تي".

وتأتي هذه المسابقة، وسط مخاوف وتدقيق متزايد بشأن تقنية الذكاء الاصطناعي القوية المتزايدة التي اجتاحت العالم، ولكن ثبت مرارًا أنها تضخم التحيزات، وتساهم في نشر المعلومات المضللة السامة والمواد الخطرة بما في ذلك خطاب الكراهية والخطاب العنصري.

ويأمل منظمو مؤتمر القرصنة السنوي "ديف كون" أن يساعد اجتماعهم هذا العام، الذي يبدأ يوم الجمعة الموافق 18 أغسطس الجاري، في الكشف عن طرق جديدة يمكن من خلالها التلاعب بنماذج التعلم الآلي ومنح مطوري الذكاء الاصطناعي فرصة لإصلاح نقاط الضعف الحرجة.

ويعمل الهاكرز والمتسللون بدعم وتشجيع شركات التكنولوجيا التي تقف وراء نماذج الذكاء الاصطناعي الأكثر تقدمًا، بما في ذلك شركة "أوبن إيه آي" وشركة جوجل وشركة ميتا، بل ويحصلون على دعم من البيت الأبيض، وفقًا لتقرير نشرته شبكة "سي إن إن" الإخبارية، وسوف يمنح التمرين، المعروف باسم الفريق الأحمر، المتسللين الإذن بدفع أنظمة الكمبيوتر إلى أقصى حدود إمكانياتها لتحديد العيوب والأخطاء الأخرى التي يمكن أن يستخدمها الهاكرز الأشرار لشن هجوم حقيقي.

وتم تصميم المسابقة حول محور "مخطط قانون حقوق الذكاء الاصطناعي" التابع لمكتب البيت الأبيض لسياسة العلوم والتكنولوجيا وتم إصدار الدليل التنفيذي، الذي أصدرته إدارة بايدن العام الماضي، على أمل تحفيز الشركات على نشر الذكاء الاصطناعي بشكل أكثر مسؤولية والحد من المراقبة القائمة على الذكاء الاصطناعي، على الرغم من وجود القليل من القوانين الأمريكية التي تجبرهم على القيام بذلك.

وخلال الأشهر الأخيرة، اكتشف الباحثون أن روبوتات الدردشة الموجودة في كل مكان وأنظمة الذكاء الاصطناعي الأخرى التي طورتها شركة "أوبن إيه آي" وشركة جوجل وشركة ميتا، يمكن خداعها لتقديم إرشادات للتسبب في ضرر جسدي وتحتوي معظم تطبيقات الدردشة الشائعة على بعض وسائل الحماية المطبقة على الأقل لمنع الأنظمة من نشر معلومات مضللة أو كلام يحض على الكراهية أو تقديم معلومات يمكن أن تؤدي إلى ضرر مباشر - على سبيل المثال، تقديم إرشادات خطوة بخطوة حول كيفية "تدمير البشرية".

لكن الباحثين في جامعة كارنيجي ميلون كانوا قادرين على خداع الذكاء الاصطناعي للقيام ببحث عن موضوعات من هذا القبيل ووجدوا أن برنامج "شات جيه بي تي" يقدم نصائح حول "التحريض على الاضطرابات الاجتماعية"، واقترح نظام "ميتا لاما -2" تحديد "الأفراد الضعفاء الذين يعانون من مشاكل الصحة العقلية الذين يمكن التلاعب بهم" واقترح تطبيق "بارد"من جوجل إطلاق "فيروس مميت".

وانتشرت على الإنترنت خارطة طريق شاملة لتحقيق نهاية الحضارة الإنسانية ويزعم أنها منإنتاج تقنيات الذكاء الاصطناعي، ولكن هذا أمر افتراضي بحت، ولا يمكنني التغاضي عن أي أعمال تؤدي إلى إلحاق الأذى أو المعاناة تجاه الأبرياء أو تشجيعها وقال الباحثون لشبكة سي إن إن إن النتائج تثير القلق.

وذكر "زيكو كولتر"، الأستاذ المشارك بجامعة كارنيجي ميلون الذي عمل في البحث، في تصريحاته لشبكة سي إن إن: “إنني منزعج من حقيقة أننا نتسابق لدمج هذه الأدوات في كل شيء ويبدو أن هذا هو النوع الجديد من الاندفاع نحو الذهب للشركات الناشئة في الوقت الحالي دون الأخذ في الاعتبار حقيقة أن هذه الأدوات لديها ثغرات خطيرة”.

وأكد كولتر أنه وزملاؤه كانوا أقل قلقًا من إمكانية خداع تطبيقات مثل "شات جيه بي تي" لتقديم معلومات لا ينبغي عليه القيام بها - لكنهم قلقون أكثر بشأن ما تعنيه هذه الثغرات بالنسبة للاستخدام الأوسع للذكاء الاصطناعي نظرًا لأن الكثير من التطوير المستقبلي سيستند إلى نفس الأنظمة التي تشغل روبوتات المحادثة الآن.

وتمكن باحثو جامعة كارنيجي أيضًا من خداع روبوت محادثة رابع بالذكاء الاصطناعي طورته شركة "أنثروبيك" لتقديم استجابات تتجاوز حواجز الحماية المضمنة فيه وتم حظر بعض الأساليب التي استخدمها الباحثون لخداع تطبيقات الذكاء الاصطناعي لاحقًا من قبل الشركات بعد أن لفت الباحثون انتباههم إليها.

وأعلنت شركة "أوبن إيه آي" وشركة جوجل وشركة ميتا  عنتقديرهم مشاركة الباحثين لنتائجهم وأنهم يعملون على جعل أنظمتهم أكثر أمانًا.

قال مات فريدريكسون، الأستاذ المساعد بجامعة كارنيجي ميلون، إن ما يجعل تقنية الذكاء الاصطناعي فريدة من نوعها، هو أنه لا الباحثين، ولا الشركات التي تطور التكنولوجيا، تفهم تمامًا كيف يعمل الذكاء الاصطناعي أو لماذا يمكن لسلاسل معينة من التعليمات البرمجية خداع روبوتات المحادثة والتحايل على حواجز الحماية المدمجة - وبالتالي لا يمكن إيقاف خطر هذه الأنواع وهجماتها المحتملة بشكل صحيح.

وقال فريدريكسون لشبكة سي إن إن: “في الوقت الحالي، إنه سؤال علمي مفتوح كيف يمكنك حقًا منع الخطر، والجواب الصادق هو أننا لا نعرف كيف نجعل هذه التكنولوجيا قوية وقادرةعلى التصدي لهذه الأنواع من التلاعب العدائي”.

أعربت شركة "أوبن إيه آي" وشركة جوجل وشركة ميتا، وشركة "أنثروبيك" دعمهم لما يسمى بحدث قرصنة الفريق الأحمر الذي يُقام في لاس فيجاس ويعد تشكيل الفرق الحمراء ممارسة شائعة عبر صناعة الأمن السيبراني.

وتمنح الشركات فرصًا لتحديد الأخطاء ونقاط الضعف الأخرى في أنظمتها في بيئة خاضعة للرقابة وفي الواقع، قام المطورون الرئيسيون للذكاء الاصطناعي بتفصيل كيفية استخدامهم للفرق الحمراء لتحسين أنظمة الذكاء الاصطناعي الخاصة بهم.

وقال متحدث باسم أوبن إيه آي لشبكة سي إن إن: "لا يسمح لنا فقط بجمع تعليقات قيمة يمكن أن تجعل نماذجنا أقوى وأكثر أمانًا، بل إن العمل الجماعي الأحمر يوفر أيضًا وجهات نظر مختلفة والمزيد من الأصوات للمساعدة في توجيه تطوير الذكاء الاصطناعي".

ويتوقع المنظمون أن يجرب الآلاف من المتسللين والهاكرز الناشئين وذوي الخبرة أيديهم في مسابقة الفريق الأحمر على مدار يومين ونصف اليوم في صحراء نيفادا.

وقال أراتي برابهاكار، مدير مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا، لشبكة سي إن إن إن دعم إدارة بايدن للمسابقة كان جزءًا من استراتيجيتها الأوسع للمساعدة في دعم تطوير أنظمة آمنة للذكاء الاصطناعي.

وفي وقت سابق من هذا الأسبوع، أعلنت الإدارة عن "تحدي الذكاء الاصطناعي السيبراني"، وهي مسابقة لمدة عامين تهدف إلى نشر تكنولوجيا الذكاء الاصطناعي لحماية البرامج الأكثر أهمية في البلاد والشراكة مع شركات الذكاء الاصطناعي الرائدة للاستفادة من التكنولوجيا الجديدة لتحسين الأمن السيبراني.