{ الذكاء الاصطناعي - AI }

تقليص فجوة الثقة لتعزيز اعتماد الذكاء الاصطناعي

الذكاء الاصطناعي يُحدث ضجة كبيرة، لكن وتيرة تبنيه تتباطأ

دخل الذكاء الاصطناعي السوق بقوة، وحقق ضجة كبيرة واعتمادًا واسعًا. ومع ذلك، يبدو أن وتيرة التبني تتباطأ.

رغم أن قادة الأعمال يواصلون الحديث عن أهمية تبني الذكاء الاصطناعي لتحقيق فوائد كبيرة – مثل التقديرات التي أشارت إليها شركة McKinsey بأن تقنيات الذكاء الاصطناعي التوليدية يمكن أن توفر على الشركات ما يصل إلى 2.6 تريليون دولار – إلا أن الواقع يظهر فجوة بين التوقعات والتطبيق. وفقًا لمسح أجري بين كبار قادة التحليلات وتقنية المعلومات، فإن 20% فقط من تطبيقات الذكاء الاصطناعي التوليدية قيد الإنتاج حاليًا.


لماذا توجد فجوة بين الاهتمام والواقع؟

الإجابة معقدة. تشمل الأسباب البارزة مخاوف بشأن الأمن والخصوصية، ومخاطر الامتثال، وإدارة البيانات، بالإضافة إلى القلق بشأن قلة شفافية الذكاء الاصطناعي ومخاوف بشأن العائد على الاستثمار والتكاليف وفجوات المهارات.

فيما يلي استعراض للعوائق التي تعترض تبني الذكاء الاصطناعي وخطوات يمكن لقادة الأعمال اتخاذها لتجاوزها.


السيطرة على البيانات

قال روب جونسون، نائب الرئيس ورئيس حلول الهندسة العالمية في SolarWinds: “البيانات عالية الجودة هي حجر الزاوية لنماذج الذكاء الاصطناعي الدقيقة والموثوقة، والتي تقود بدورها قرارات ونتائج أفضل.” وأضاف: “البيانات الموثوقة تبني الثقة في الذكاء الاصطناعي بين محترفي تقنية المعلومات، مما يسرّع من تبني التقنيات ودمجها.”

ومع ذلك، أظهرت الدراسات أن 43% فقط من محترفي تقنية المعلومات واثقون من قدرتهم على تلبية متطلبات البيانات للذكاء الاصطناعي.

للتغلب على هذا التحدي، يجب على المؤسسات بناء استراتيجية حوكمة بيانات قوية من الأساس، مع وضع ضوابط صارمة تضمن جودة البيانات وسلامتها.


الاهتمام بالأخلاقيات والحوكمة

مع تزايد اللوائح، يصبح الامتثال مصدر قلق كبير للشركات. يزيد الذكاء الاصطناعي من مخاطر الامتثال والقضايا الأخلاقية التي يجب على قادة الأعمال التعامل معها.

يجب أن يُنظر إلى اللوائح على أنها إطار عمل يمكن للشركات البناء عليه لتطوير ضوابط المخاطر والمبادئ الأخلاقية. من الخطوات المهمة:

  • تطوير سياسات الامتثال.
  • تشكيل فرق لحوكمة الذكاء الاصطناعي.
  • التأكد من أن القرارات المعتمدة على الذكاء الاصطناعي تظل تحت إشراف الإنسان.


تعزيز الأمن والخصوصية

تشكل مخاوف الأمن وخصوصية البيانات عائقًا رئيسيًا أمام اعتماد الذكاء الاصطناعي. أظهرت دراسة Cisco 2024 Data Privacy Benchmark أن 48% من الموظفين يعترفون بإدخال معلومات سرية للشركة في أدوات الذكاء الاصطناعي التوليدية.

لتقليل هذه المخاطر، يجب على الشركات:

  • فرض قيود صارمة على الوصول إلى البيانات الحساسة.
  • الابتعاد عن مشاركة البيانات مع نماذج اللغة الضخمة المستضافة علنًا.
  • استخدام بنى تحتية تحمي البيانات وتبقيها بعيدة عن متناول الذكاء الاصطناعي المباشر.


تعزيز الشفافية وقابلية التفسير

يمثل نقص الثقة في نتائج الذكاء الاصطناعي عائقًا كبيرًا آخر. وللتغلب على هذه المخاوف، يجب تحسين الشفافية وقابلية التفسير. يقول عدنان مسعود، كبير مهندسي الذكاء الاصطناعي في UST: “تتمثل الشفافية في شرح منطق النتائج بوضوح، مما يجعل عملية اتخاذ القرار مفهومة وقابلة للوصول.”

يجب على قادة الذكاء الاصطناعي:

  • الاستثمار في أدوات مثل SHAP لتوضيح التأثيرات، ومؤشرات عدالة الذكاء الاصطناعي.
  • تطوير سياسات حوكمة صارمة تمنع غموض “الصندوق الأسود”.


تحديد قيمة واضحة للأعمال

تعد التكلفة من بين الحواجز التقليدية لاعتماد الذكاء الاصطناعي. أشار 26% من المشاركين في استبيان Cloudera إلى أن أدوات الذكاء الاصطناعي مكلفة، بينما وجد تقرير Gartner أن الفشل في تحديد قيمة واضحة للأعمال يؤدي إلى إعاقة المشاريع.

لتجاوز هذه العقبة، يجب على الشركات:

  • تحديد مجالات تحقق عائد استثمار سريع.
  • وضع مؤشرات أداء رئيسية لقياس الفائدة.
  • التركيز على حالات الاستخدام الأكثر قيمة وتأثيرًا.


إعداد برامج تدريب فعالة

تشكل فجوة المهارات تحديًا كبيرًا، مع قلة الجهود المبذولة لمعالجتها. وجدت دراسة Asana’s State of AI at Work أن 82% من المشاركين أشاروا إلى أن منظماتهم لم تقدم تدريبًا على استخدام الذكاء الاصطناعي التوليدي.

من المهم تقديم تدريب شامل للموظفين، مع التركيز على المهارات الأساسية، مثل تقنيات الإدخال الفعّالة. يمكن استخدام أدوات بسيطة لتسهيل التعلم أثناء العمل للموظفين غير المتمرسين.


العوائق أمام تبني الذكاء الاصطناعي ليست مستعصية

رغم التباطؤ الحالي، لا توجد مؤشرات على أن اعتماد الذكاء الاصطناعي مهدد على المدى الطويل. يمكن للشركات التغلب على معظم العوائق من خلال خطوات عملية، مثل تعزيز جودة البيانات، الاهتمام بالأخلاقيات، وتوفير التدريب المناسب، مع ضمان عوائد استثمارية مستدامة.

المصدر: AI News

مقالات ذات صلة

زر الذهاب إلى الأعلى