الخميس 13 مارس 2025 الموافق 13 رمضان 1446
رئيس التحرير
شيماء جلال
عاجل
مقالات

إدارة المخاطر المرتبطة بالذكاء الاصطناعي التوليدي.. وأفضل الممارسات لتوظيفه في المؤسسات والشركات

الرئيس نيوز

الذكاء الاصطناعي التوليدي هو تقدم تكنولوجي مهم استحوذ على اهتمام الحكومات، والجمهور، وقادة الأعمال. ولكنه أيضًا يطرح تحديات فريدة لأولئك المكلفين بإدارة المخاطر والتهديدات المرتبطة بهذه التكنولوجيا. فبالنظر إلى مدى حداثة هذه التكنولوجيا، من المدهش حقًا مدى التطور الذي شهدناه في هذا المجال، وكيفية حدوث ذلك وانتشاره بهذه السرعة. لكن، كما هو الحال مع جميع التقنيات الجديدة، هناك مخاطر مرتبطة بها، وربما تكون المخاطر هنا أكبر مما هي مع بعض التقنيات الأخرى.

فقد نلاحظ أن هناك فئة ممن تبنوا هذا التطور منذ بدايته متحمسين للغاية. في المقابل، هناك العديد ممن يتعاملون بحذر ويقولون، "ربما من الأفضل أن ننتظر ونرى" ولكن الصواب هو ان نؤمن بشدة أن الذكاء الاصطناعي التوليدي هو تكنولوجيا دائمة ستستمر في التطور، وأن هذه التكنولوجيا ستوفر فرصًا استراتيجية غير مسبوقة تمتد عبر مختلف الصناعات وتشمل تقريبًا كل جانب من جوانب الأعمال. هناك مسار واضح يمكننا من خلاله الاستفادة من فوائد الذكاء الاصطناعي التوليدي الرائعة. كما أننا نؤمن بأن الانتظار وعدم التحرك لتبني هذه التكنولوجيا ليس خيارًا مجديًا؛ فقد أصبح الأمر ضرورة استراتيجية. فمن منظور إدارة المخاطر، يمكن القول إن عدم التعمق في هذا المجال يشكل خطرًا استراتيجيًا كبيرًا. ومع ذلك، هناك بعض المخاطر الحقيقية المرتبطة بنشر الذكاء الاصطناعي التوليدي. لكي تنجح المؤسسة في استخدام هذه التكنولوجيا، فهي تحتاج إلى استراتيجية دفاعية وهجومية معًا.

من المهم فهم كيف تتبنى الجهات القضائية المختلفة مناهج وأساليب متباينة في التعامل مع مخاطر الذكاء الاصطناعي التوليدي وكيفية تنظيمه. فقد تتبع كل منطقة سياسات وإجراءات تنظيمية مختلفة لإدارة هذه المخاطر. ويختلف هذا بشكل كبير عما رأيناه في بدايات تنظيم خصوصية البيانات. في ذلك الوقت، كانت اللائحة العامة لحماية البيانات هي المعيار الرئيسي الذي اعتمدت عليه العديد من الشركات. فقد قامت هذه الشركات بتعديل سياساتها الأولية لتتوافق مع اللائحة، ومن ثم استخدمتها كأساس لتطوير سياساتها عالميًا. أما في حالة الذكاء الاصطناعي التوليدي، فلا يوجد معيار عالمي موحد، مما يجعل إدارة مخاطره أكثر تعقيدًا وتنوعًا حسب المنطقة.

لقد شهدنا الكثير من التشريعات التي استُلهمت من اللائحة العامة لحماية البيانات وجاءت بعدها. كما اعتمدت بعض القوانين في كاليفورنيا بشكل مباشر على اللائحة أيضًا. ولكننا نشعر أن تطبيق نفس النهج مع الذكاء الاصطناعي التوليدي سيكون أكثر تعقيدًا وصعوبة.

تبدو الفائدة الكبيرة التي يمكن أن يوفرها الذكاء الاصطناعي وكيف يمكن أن يؤثر مباشرة على المواطنين أمرًا جليًا للغاية للقطاع العام. ومع ذلك، هناك مخاطر تتعلق بخصوصية البيانات، والأمن السيبراني، واستخدام التزييف العميق، والتي يمكن أن تؤثر بشكل كبير على الانتخابات والأحداث العامة الأخرى.

تتجه العديد من الجهات الحكومية والمؤسسات العامة إلى اتخاذ موقف استباقي في التعامل مع الذكاء الاصطناعي التوليدي، وذلك لتحديد السياسات والإجراءات المناسبة. ويصبح هذا الأمر أكثر أهمية عند العمل في مناطق متعددة تتباين فيها القوانين والتشريعات. لذلك، يتعين على المؤسسات أن تكون مستعدة لمواكبة التغييرات التنظيمية في كل منطقة تعمل بها. فمن الضروري أن تقوم هذه المؤسسات بتكييف استراتيجياتها وتضمين الإجراءات اللازمة بشكل مرن وسريع لضمان الامتثال للقوانين والتشريعات الجديدة. بعبارة أخرى، المرونة والتكيف هما المفتاح لضمان استخدام الذكاء الاصطناعي بشكل مسؤول ومتوافق مع الأنظمة القانونية المتنوعة.

السؤال هنا هو كيف تختلف المخاطر والقوانين التنظيمية بين الذكاء الاصطناعي التوليدي وبين التطورات الأخرى في مجال الذكاء الاصطناعي، مثل التعلم الآلي؟ والاجابة هي ان الذكاء الاصطناعي التحليلي، الذي كان يشكل أساس تطوير التعلم الآلي قبل ظهور الذكاء الاصطناعي التوليدي، يعتمد بشكل رئيسي على نقطتين أساسيتين:

النقطة الأولى تتمثل في خصوصية البيانات، وهي تشمل التفكير في كيفية استخدام تلك النماذج للبيانات، وكيفية دمج البيانات لإجراء التحليلات الاصطناعية أو تحسين النتائج المحتملة.

أما النقطة الثانية فهي تتعلق بالعدالة في هيكل النموذج. فهناك قلق واسع من أن هذه النماذج يمكن أن تخرج نتائج مختلفة تبعًا لعوامل مثل لون البشرة أو الجنس. أصبحت هذه المخاوف حول هذا الأمر واضحة خصوصًا في الولايات المتحدة، حيث أثار الذكاء الاصطناعي التحليلي قضايا كبيرة تتعلق بتشريعات الإسكان العادل واتخاذ قرارات الائتمان في الخدمات المالية. فالنماذج قد تكون منحازة، مما يؤدي إلى قرارات غير منصفة تتأثر بالعوامل الديموغرافية.

أما الآن، أصبح هناك وعي متزايد بالتحديات المرتبطة بقابلية تفسير النماذج على سبيل المثال.

من الواضح أن هناك مخاطر كبيرة مرتبطة باستخدام الذكاء الاصطناعي التوليدي لأغراض ضارة، خصوصًا فيما يتعلق بتقنية التزييف العميق. يمكن لهذه التكنولوجيا أن تنتج صورًا أو مقاطع فيديو مزيفة تبدو حقيقية للغاية، سواء لهويات فردية أو لشركات. ويتسبب ذلك في مخاطر هائلة تمس السمعة، حيث يمكن أن يتم انتحال شخصيات أو شركات بشكل مقنع، مما يؤدي إلى فقدان الثقة وتدمير السمعة. بالإضافة إلى ذلك، تواجه الحكومات تحديات كبيرة في التصدي لهذه التهديدات وحماية مواطنيها ومؤسساتها من الاستخدامات الخبيثة لهذه التكنولوجيا المتقدمة.

يتطلب جانب العدالة في نماذج الذكاء الاصطناعي شفافية حقيقية حول كيفية عمل هذه النماذج. في معظم الصناعات، يكون جزءً من الحل هو شرح كيفية عمل النموذج بوضوح. في النماذج التحليلية التقليدية، سواء كانت تخضع للتنظيم أم لا، يمكنك تفسير النتائج بدقة. ويساعد هذا الوضوح في تعزيز الثقة والراحة تجاه استخدام النموذج.

يختلف التعامل مع الذكاء الاصطناعي التوليدي تمامًا عن النماذج التقليدية، لأن تفسير هذه النماذج وفهم كيفية عملها ليس واضحًا. وعلى الرغم من أن المخاطر قد تكون مشابهة، إلا أن التحدي يكمن في كيفية تعامل الشركات والهيئات التنظيمية مع هذه النماذج التي لا يمكن فتحها وتحليلها بسهولة. بدلًا من ذلك، يجب الاعتماد على مؤشرات أخرى لضمان أن هذه النماذج عادلة وغير منحازة. هذا يعني أن علينا إيجاد طرق جديدة للشعور بالراحة والثقة في استخدام هذه التكنولوجيا.

لو تساءلنا هل هناك مجالات محددة تركز عليها الحكومات والهيئات التنظيمية عند تقييم مخاطر الذكاء الاصطناعي؟ أم أن الاهتمام الرئيسي ينصب على مدى إمكانية تفسير وفهم كيفية عمل هذه النماذج. فأننا سنجد ان الأهم هو الوصول إلى فهم أعمق لكيفية عمل هذه النماذج. يجب أن تكون هناك ثقة من قبل الشركات والحكومات في أن النماذج تقدم نتائج يمكن تفسيرها وفهمها بطريقة ما. بمعنى آخر، من الضروري أن تكون النتائج التي تنتجها هذه النماذج شفافة وقابلة للتفسير لضمان تحقيق عنصر الثقة عند استخدامها.

يكمن التحدي الرئيسي مع نماذج الذكاء الاصطناعي التوليدي في فهم كيفية عمل هذه النماذج وأيضًا تحديد مصادر البيانات التي تعتمد عليها. هناك نقاش حالي حول استخدام علامات مائية للمساعدة في معرفة ما إذا كان المحتوى قد تم إنشاؤه بواسطة الذكاء الاصطناعي أو بواسطة البشر من خلال العمليات الإبداعية التقليدية. السؤال هو: هل يمكننا التمييز بين المحتوى الذي أنشأه الذكاء الاصطناعي والمحتوى الذي أنشأه البشر؟ هذا التحدي يتطلب تطوير طرق جديدة لضمان الشفافية والثقة في استخدام هذه التقنيات.

ترتبط تحديات الملكية الفكرية باستخدام الذكاء الاصطناعي التوليدي في إنشاء المحتوى. ومع اقتراب الانتخابات القادمة، من المتوقع أن تركز الحكومات بشكل كبير على كيفية تأثير هذه التكنولوجيا على سير العملية الانتخابية. هناك حاجة إلى التفكير في كيفية بناء ثقة العامة في هذه الأنظمة، وضمان استعداد الناس لاستخدامها والتفاعل معها بشكل إيجابي. هذا يتضمن ضمان أن الجمهور يثق في نتائج هذه الأنظمة ويشعر بالأمان عند استخدامها.

لن يندهش أحد إذا قلنا إن تنظيمات الذكاء الاصطناعي التوليدي لا تزال في مراحلها المبكرة. نتوقع صدور المزيد من اللوائح قريبًا، خاصة تلك المتعلقة بالصناعات المحددة مثل الخدمات المالية. فمن المؤكد أن هذا القطاع سيواجه تنظيمات أكثر تحديدًا وتفصيلًا. لذلك، من الأفضل أن نركز على تطوير استراتيجيات جديدة تأخذ في الاعتبار القضايا الرئيسية المتعلقة بالذكاء الاصطناعي التوليدي، بدلًا من محاولة تحسين التنظيمات الحالية فقط، لأن هذه الاستراتيجية لن تكون فعالة على المدى الطويل.

بالنسبة للشركات التي تعمل في مجال الذكاء الاصطناعي التوليدي منذ فترة، فهناك مشكلة محددة والتي تتمثل في المبادئ التي تتبعها لضمان استخدام هذه التكنولوجيا بأمان، وأيضا ما هي القواعد والإرشادات التي تلتزم بها هذه الشركات لتجنب المخاطر وضمان أن الذكاء الاصطناعي التوليدي يُستخدم بطريقة مسؤولة وآمنة. لذلك يجب على المؤسسات الآتي:

لا تدع الآلات تعمل بمفردها دون تدخل بشري. يجب أن يكون هناك دائمًا جانب بشري متداخل في العملية. يتم استخدام نتائج نماذج الذكاء الاصطناعي كمدخلات تساعد البشر في اتخاذ القرارات، وليس كقرارات نهائية بحد ذاتها. هذا يعني أن النماذج توفر معلومات وأفكار يمكن للبشر الاعتماد عليها لتقييم الوضع واتخاذ القرار المناسب، ولكن لا يجب الاعتماد على هذه النماذج لاتخاذ القرارات النهائية دون مراجعة بشرية.

ما هو مطمئن بالأمر هو أن الذكاء الاصطناعي التوليدي يجعل من السهل إجراء اختبارات سريعة للتحقق من العدالة في الأنظمة. ويمكن أن يكون هذا النوع من الذكاء الاصطناعي مفيدًا جدًا في تعزيز قدرات إدارة المخاطر. ويكمن التحول الأكبر الذي يجلبه الذكاء الاصطناعي التوليدي، مقارنة ببرامج الذكاء الاصطناعي المسؤولة التي تعمل عليها معظم المؤسسات، في الشفافية وقدرة النماذج على تفسير قراراتها. بالإضافة إلى ذلك، تبرز أهمية مراقبة وتقييم أداء هذه النماذج بشكل مستمر لضمان عملها بطريقة عادلة ومسؤولة. بذلك، يساهم الذكاء الاصطناعي التوليدي في تحسين العدالة والإدارة الفعالة للمخاطر من خلال الشفافية والمراقبة الدائمة.

يمثل مراقبة تطور الذكاء الاصطناعي التوليدي بمرور الوقت تحديًا فريدًا من نوعه. لهذا السبب، نرى أن الشركات التي نعمل معها تستثمر في أدوات وتقنيات لمراقبة هذا التطور بشكل مستمر. وقد لاحظنا بأن هذه الشركات تبحث دائمًا عن الإضافات والفحوصات الإضافية التي يمكن وضعها لضمان دقة وموثوقية النتائج التي ينتجها الذكاء الاصطناعي. بمعنى آخر، الشركات في رحلة بحث دائمة عن طرق جديدة لضمان الراحة والثقة في استخدام مخرجات الذكاء الاصطناعي التوليدي، مما يعزز من كفاءتها وموثوقيتها.

يمكن أن يكون الاعتماد المفرط على مجموعة صغيرة من الخبراء مشكلة كبيرة. في البداية، عندما تبدأ في بناء حالات استخدام الذكاء الاصطناعي التوليدي، قد تكون القدرات الداخلية محدودة. في هذه المرحلة، ستعتمد على مجموعة صغيرة من الأشخاص المتحمسين والمتخصصين في هذا المجال. لكن مع توسع استخدام الذكاء الاصطناعي داخل الشركة، ستجد هذه المجموعة الصغيرة نفسها مثقلة بالأعباء بسرعة. هذا سيؤدي إلى الكثير من الاحتكاك والإحباط، وسيبطئ من تقدم العملية بأكملها. فمن المهم توزيع المعرفة والخبرة بشكل أوسع داخل الشركة لضمان استمرارية ونجاح توسع استخدام الذكاء الاصطناعي.

لا ينصح بالاعتماد الكامل على البائعين ومقدمي الخدمات الخارجية، حتى في المراحل المبكرة من استخدام الذكاء الاصطناعي التوليدي. هناك اختلاف كبير في مستوى الخدمات التي يقدمها مزودو النماذج اللغوية الكبيرة والأنظمة الطرفية الأخرى. لذلك، يجب على الشركات أن تتحمل المسؤولية بنفسها وتقوم بعملية التدقيق والفحص الدقيق لهذه التقنيات. ينبغي للشركات أيضًا أن تفكر في كيفية تعزيز الأمان داخليًا بدلًا من الاعتماد فقط على الحلول الجاهزة التي يقدمها البائعون. وبالمثل، فإن الاعتماد فقط على الاستراتيجيات التقنية للتخفيف من المخاطر لن يكون كافيًا. يجب تطوير استراتيجيات شاملة تشمل الجوانب التقنية وغير التقنية لضمان الحماية الفعالة.

ما زلنا نتعلم الكثير عن كيفية أداء الضوابط واستراتيجيات التخفيف المختلفة. لذا، من الضروري دمج العوامل البشرية في هذه العمليات، مثل وجود شخص يتابع ويشرف على العملية. يجب دمج فرق المخاطر والتطوير في أقرب وقت ممكن لضمان فعالية العمليات. نظرًا لتطور الذكاء الاصطناعي التوليدي وديناميكيته، يجب أن تكون الشركات على دراية بأن هذه التقنيات ستتغير وتتطور بمرور الوقت. لذلك، من الضروري أن يكون لديك طرق لمتابعة هذا التطور والتكيف معه لضمان التوسع الناجح والمستدام.

فمن أجل تحسين الأداء والتقدم بأمان، يجب أن تكون لدينا ضوابط قوية، مثل تحسين المكابح في السيارة للسماح بالسير بسرعة أكبر بأمان. هذا هو الهدف من التركيز على إدارة المخاطر. وأود أن أضيف أنني خبيرة متمرسة في هذا المجال، وأفهم تمامًا أهمية التحضير الجيد لإدارة المخاطر لضمان نجاح العمل.