{ سيو - SEO }

تحديثات بحث Bing: نتائج أسرع وأكثر دقة

تحسينات مايكروسوفت لمحرك Bing باستخدام نماذج لغوية جديدة لخفض التكاليف وتقديم نتائج أكثر سرعة ودقة.

أعلنت مايكروسوفت عن تحديثات جديدة للبنية التحتية لبحث Bing تشمل نماذج لغوية كبيرة (LLMs)، ونماذج لغوية صغيرة (SLMs)، وتقنيات تحسين جديدة.

يهدف هذا التحديث إلى تحسين الأداء وتقليل التكاليف في تقديم نتائج البحث.

وفي الإعلان، ذكرت الشركة:

“في Bing، نحن نسعى دائمًا لتوسيع حدود تكنولوجيا البحث. الاستفادة من النماذج اللغوية الكبيرة (LLMs) والنماذج اللغوية الصغيرة (SLMs) يمثل خطوة مهمة في تعزيز قدراتنا البحثية. في حين أن نماذج المحولات خدمتنا جيدًا، إلا أن تعقيد استفسارات البحث المتزايدة استدعى نماذج أكثر قوة.”


تحسينات الأداء

استخدام النماذج اللغوية الكبيرة في أنظمة البحث قد يسبب مشكلات تتعلق بالسرعة والتكلفة.

لحل هذه المشكلات، قامت Bing بتدريب نماذج لغوية صغيرة (SLMs)، تدعي أنها أسرع بمئة مرة من النماذج اللغوية الكبيرة.

وفقًا للإعلان:

“يمكن أن تكون النماذج اللغوية الكبيرة مكلفة وبطيئة. لتحسين الكفاءة، قمنا بتدريب نماذج SLM (~تحسين سرعة التشغيل بمقدار 100 ضعف مقارنة بالنماذج الكبيرة)، التي تعالج استفسارات البحث وتفهمها بدقة أكبر.”

كما تستخدم Bing أداة NVIDIA TensorRT-LLM لتحسين أداء النماذج الصغيرة.

أداة TensorRT-LLM هي أداة تقلل من الوقت والتكلفة اللازمة لتشغيل النماذج الكبيرة على وحدات معالجة الرسومات (GPUs) من NVIDIA.


التأثير على “البحث العميق”

وفقًا لتقرير تقني من مايكروسوفت، أدى دمج تقنية TensorRT-LLM من NVIDIA إلى تحسين ميزة “البحث العميق” (Deep Search) لدى Bing.

ميزة البحث العميق تستفيد من النماذج اللغوية الصغيرة (SLMs) لتقديم نتائج ويب دقيقة في الوقت الفعلي.

قبل التحسين، كان وقت التأخير في النموذج الأصلي لمحرك Bing عند 95٪ من الحالات يبلغ 4.76 ثانية لكل دفعة (20 استفسارًا)، وكان معدل المعالجة 4.2 استفسارات في الثانية لكل وحدة تشغيل.

بعد استخدام TensorRT-LLM، تم تقليص وقت التأخير إلى 3.03 ثانية لكل دفعة، وارتفع معدل المعالجة إلى 6.6 استفسارات في الثانية لكل وحدة تشغيل.

هذا يمثل انخفاضًا بنسبة 36٪ في وقت التأخير، وتراجعًا بنسبة 57٪ في تكاليف التشغيل.

وذكرت الشركة:

“… منتجنا يعتمد على تقديم أفضل النتائج، ولن نقبل بتقديم تنازلات على الجودة من أجل السرعة. هنا يأتي دور TensorRT-LLM، الذي يقلل من زمن تشغيل النماذج، وبالتالي يقلل من زمن استجابة التجربة الكاملة دون التضحية بجودة النتائج.”


الفوائد لمستخدمي Bing

يوفر هذا التحديث العديد من الفوائد المحتملة لمستخدمي Bing:

  • نتائج بحث أسرع: مع تحسين استدلال النماذج وسرعة الاستجابة.
  • دقة محسّنة: من خلال قدرات نماذج SLM المحسّنة، لتقديم نتائج أكثر تفصيلًا وسياقية.
  • كفاءة في التكلفة: مما يسمح لبينغ بالاستثمار في ابتكارات وتحسينات مستقبلية.


لماذا يهم انتقال Bing إلى نماذج LLM/SLM؟

قد يكون لتحول Bing إلى استخدام نماذج LLM/SLM وتقنيات التحسين مثل TensorRT تأثير كبير على مستقبل البحث.

مع زيادة تعقيد الاستفسارات التي يطرحها المستخدمون، يجب أن تكون محركات البحث قادرة على فهمها بشكل أفضل وتقديم نتائج دقيقة بسرعة. يهدف Bing إلى تحقيق ذلك من خلال الاعتماد على النماذج اللغوية الصغيرة وتقنيات التحسين المتقدمة.

في حين قد نحتاج إلى الانتظار لنرى التأثير الكامل لهذا التحديث، فإن خطوة Bing تفتح الباب لمرحلة جديدة في عالم البحث.

مقالات ذات صلة

زر الذهاب إلى الأعلى