تلفن تماس

02191097212

ساعت کاری

9 تا 17 هر روز هفته

سبد خرید فروشگاه

تحقیقات الگوریتم رتبه بندی گوگل TW-BERT را معرفی می کند

تحقیقات الگوریتم رتبه بندی گوگل TW-BERT را معرفی می کند
تحقیقات الگوریتم رتبه بندی گوگل TW-BERT را معرفی می کند

فهرست مطالب تحقیقات الگوریتم رتبه بندی گوگل TW-BERT را معرفی می کند

مقاله تحقیقاتی گوگل چارچوب قابل توجهی به نام TW-BERT را توصیف می کند که رتبه بندی جستجو را بدون نیاز به تغییرات عمده بهبود می بخشد. TW-BERT یک چارچوب وزن دهی عبارت پرس و جو سرتاسر است که دو پارادایم را برای بهبود نتایج جستجو پیوند می دهد. با مدل های بسط پرس و جو موجود ادغام می شود و عملکرد را بهبود می بخشد. استقرار چارچوب جدید به حداقل تغییرات نیاز دارد.

تحقیقات الگوریتم رتبه بندی گوگل TW-BERT را معرفی می کند

گوگل یک چارچوب رتبه بندی قابل توجه به نام Term Weighting BERT (TW-BERT) را معرفی کرد که نتایج جستجو را بهبود می بخشد و به راحتی در سیستم های رتبه بندی موجود به کار می رود. اگرچه گوگل استفاده از TW-BERT را تایید نکرده است، این چارچوب جدید پیشرفتی است که فرآیندهای رتبه بندی را در سراسر صفحه بهبود می بخشد، از جمله در گسترش پرس و جو. همچنین استقرار آن آسان است، که به نظر من احتمال استفاده از آن را افزایش می دهد.

TW-BERT نویسندگان مشترک زیادی دارد، از جمله مارک ناجورک ، دانشمند پژوهشی برجسته در Google DeepMind و مدیر ارشد سابق مهندسی تحقیقات در Google Research. او مقالات تحقیقاتی بسیاری را در زمینه موضوعات مرتبط با فرآیندهای رتبه بندی و بسیاری از زمینه های دیگر تالیف کرده است. در میان مقالات مارک نایورک به عنوان یکی از نویسندگان ذکر شده است:

  • در مورد بهینه سازی معیارهای Top-K برای مدل های رتبه بندی عصبی – 2022
  • مدل‌های زبان پویا برای محتوای در حال تکامل پیوسته – 2021
  • بازاندیشی جستجو: ساخت متخصصان دامنه از Dilettantes – 2021
  • تبدیل ویژگی برای مدل‌های رتبه‌بندی عصبی – – ۲۰۲۰
  • یادگیری تا رتبه با BERT در رتبه بندی TF – 2020
  • تطبیق متن معنایی برای اسناد طولانی – 2019
  • رتبه بندی TF: کتابخانه TensorFlow مقیاس پذیر برای یادگیری تا رتبه – 2018
  • چارچوب LambdaLoss برای رتبه بندی بهینه سازی متریک – 2018
  • آموزش رتبه بندی با سوگیری انتخاب در جستجوی شخصی – 2016

TW-BERT چیست؟

TW-BERT یک چارچوب رتبه‌بندی است که امتیازهایی (به نام وزن‌ها) را به کلمات درون یک عبارت جستجو اختصاص می‌دهد تا با دقت بیشتری مشخص کند چه اسنادی برای آن عبارت جستجو مرتبط هستند. TW-BERT همچنین در Query Expansion مفید است. Query Expansion فرآیندی است که یک عبارت جستجو را مجدداً بیان می‌کند یا کلمات بیشتری را به آن اضافه می‌کند (مانند افزودن کلمه “رسپی” به عبارت “سوپ مرغ”) تا جستجوی جستجو را بهتر با اسناد مطابقت دهد. افزودن امتیاز به پرس و جو به آن کمک می کند تا بهتر تشخیص دهد که پرس و جو در مورد چیست.

دو پارادایم بازیابی اطلاعات پل های TW-BERT

مقاله تحقیق دو روش مختلف جستجو را مورد بحث قرار می دهد. یکی که مبتنی بر آمار است و دیگری مدل های یادگیری عمیق. در ادامه بحثی در مورد مزایا و معایب این روش‌های مختلف وجود دارد و پیشنهاد می‌شود که TW-BERT راهی برای پل زدن این دو رویکرد بدون هیچ یک از کاستی‌ها است. آنها می نویسند:

«این روش‌های بازیابی مبتنی بر آمار، جستجوی کارآمدی را ارائه می‌کنند که با اندازه پیکره افزایش می‌یابد و به حوزه‌های جدید تعمیم می‌یابد. با این حال، عبارات به طور مستقل وزن داده می شوند و زمینه کل پرس و جو را در نظر نمی گیرند.

محققان سپس خاطرنشان می کنند که مدل های یادگیری عمیق می توانند زمینه پرس و جوهای جستجو را کشف کنند. توضیح داده شده است:

برای این مشکل، مدل‌های یادگیری عمیق می‌توانند این زمینه‌سازی را روی پرس و جو انجام دهند تا بازنمایی بهتری برای اصطلاحات فردی ارائه دهند.

آنچه محققان پیشنهاد می کنند استفاده از TW-Bert برای پل زدن این دو روش است. پیشرفت شرح داده شده است:

«ما این دو پارادایم را برای تعیین مرتبط‌ترین یا نامرتبط‌ترین عبارت‌های جستجو در جست‌وجو پیوند می‌دهیم… . سپس این عبارات را می توان با وزن بالا یا کاهش وزن کرد تا به سیستم بازیابی ما اجازه دهد نتایج مرتبط تری تولید کند.

مثالی از وزن عبارت جستجوی TW-BERT

مقاله تحقیقاتی مثالی از عبارت جستجو، “کفش های دویدن نایک” را ارائه می دهد. به عبارت ساده، کلمات “کفش های دویدن نایک” سه کلمه ای هستند که یک الگوریتم رتبه بندی باید به روشی که جستجوگر قصد درک آن را دارد بفهمد. آنها توضیح می دهند که تأکید بر بخش «در حال اجرا» پرس و جو، نتایج جستجوی نامربوطی را نشان می دهد که حاوی مارک هایی غیر از نایک است. در آن مثال، نام تجاری نایک مهم است و به همین دلیل فرآیند رتبه بندی باید مستلزم آن باشد که صفحات وب نامزد دارای کلمه نایک در آنها باشند.

صفحات وب کاندیدا صفحاتی هستند که برای نتایج جستجو در نظر گرفته می شوند. کاری که TW-BERT انجام می دهد این است که برای هر قسمت از جستار جستجو امتیازی (به نام وزن دهی) ارائه می دهد تا به همان شکلی که شخصی که جست و جو را وارد کرده است منطقی باشد. در این مثال کلمه نایک مهم در نظر گرفته شده است، بنابراین باید به آن نمره (وزن) بالاتری داده شود. محققان می نویسند:

بنابراین چالش این است که ما باید اطمینان حاصل کنیم که نایک به اندازه کافی وزن دارد و در عین حال کفش‌های دویدن را در نتایج برگشتی نهایی ارائه می‌کند.

چالش دیگر درک متن کلمات “دویدن” و “کفش” است و این بدان معنی است که وزن برای پیوستن دو کلمه به عنوان یک عبارت، “کفش دویدن” به جای وزن کردن دو کلمه به طور مستقل، باید بیشتر متمایل شود. این مشکل و راه حل توضیح داده شده است:

جنبه دوم این است که چگونه می‌توان از اصطلاحات معنی‌دار n-gram در طول امتیازدهی استفاده کرد. در جستار ما، اصطلاحات «دویدن» و «کفش» به طور مستقل مورد استفاده قرار می‌گیرند، که می‌توانند به همان اندازه با «جوراب‌های دویدن» یا «کفش‌های اسکیت» مطابقت داشته باشند. در این مورد، ما می‌خواهیم که رتریور ما روی سطح عبارت n-gram کار کند تا نشان دهد که «کفش‌های دویدن» باید در هنگام امتیازگیری وزن بیشتری داشته باشند.

حل محدودیت ها در چارچوب های فعلی

مقاله پژوهشی وزن‌دهی سنتی را به‌عنوان محدود بودن در تنوع پرس‌و‌جوها خلاصه می‌کند و اشاره می‌کند که آن روش‌های وزن‌دهی مبتنی بر آمار برای سناریوهای شات صفر عملکرد کمتری دارند. یادگیری صفر شات اشاره ای به توانایی یک مدل برای حل مسئله ای است که برای آن آموزش ندیده است. همچنین خلاصه‌ای از محدودیت‌های ذاتی روش‌های فعلی گسترش اصطلاح وجود دارد. بسط اصطلاح زمانی است که از مترادف ها برای یافتن پاسخ های بیشتر برای پرس و جوهای جستجو یا زمانی که کلمه دیگری استنباط می شود استفاده می شود.

به عنوان مثال، هنگامی که شخصی برای “سوپ مرغ” جستجو می کند، به معنای ” دستور پخت سوپ مرغ “ استنباط می شود . آنها در مورد کاستی های روش های فعلی می نویسند:

این توابع امتیازدهی کمکی برای مراحل وزن دهی اضافی که توسط توابع امتیازدهی استفاده شده در بازیابی های موجود، مانند آمار پرس و جو، آمار اسناد، و مقادیر فراپارامتر انجام می شود، در نظر نمی گیرند. این می تواند توزیع اصلی وزن های ترم اختصاص داده شده را در طول امتیازدهی نهایی و بازیابی تغییر دهد.

در مرحله بعد، محققان بیان می‌کنند که یادگیری عمیق به شکل پیچیدگی به کارگیری آن‌ها و رفتار غیرقابل پیش‌بینی در هنگام مواجهه با حوزه‌های جدیدی که برای آنها از قبل آموزش ندیده‌اند، توشه‌های خاص خود را دارد. این همان جایی است که TW-BERT وارد تصویر می شود.

TW-BERT پل دو رویکرد

راه حل پیشنهادی مانند یک رویکرد ترکیبی است. در نقل قول زیر، اصطلاح IR به معنای بازیابی اطلاعات است. آنها می نویسند:

برای پر کردن شکاف، ما از استحکام بازیابی‌های واژگانی موجود با بازنمایی متن متنی ارائه شده توسط مدل‌های عمیق استفاده می‌کنیم. رتریورهای واژگانی در حال حاضر قابلیت تخصیص وزن به اصطلاحات n-gram را هنگام انجام بازیابی فراهم می کنند.ما از یک مدل زبان در این مرحله از خط لوله استفاده می‌کنیم تا وزن‌های مناسب برای عبارت‌های n-gram پرس و جو ارائه کنیم. این اصطلاح وزن‌سازی BERT (TW-BERT) با استفاده از همان توابع امتیازدهی مورد استفاده در خط لوله بازیابی برای اطمینان از سازگاری بین آموزش و بازیابی بهینه شده است. این منجر به بهبود بازیابی در هنگام استفاده از وزن‌های مدت تولید شده TW-BERT می‌شود و در عین حال زیرساخت IR را مشابه مشابه تولید فعلی خود نگه می‌دارد.

الگوریتم TW-BERT وزن‌هایی را به پرس‌و‌جوها اختصاص می‌دهد تا امتیاز مربوط به دقیق‌تری ارائه کند که بقیه مراحل رتبه‌بندی می‌توانند با آن کار کنند.

استفاده از TW-BERT آسان است

یکی از مزایای TW-BERT این است که می‌توان آن را مستقیماً در فرآیند رتبه‌بندی بازیابی اطلاعات فعلی، مانند یک مؤلفه حذفی، وارد کرد. “این ما را قادر می سازد تا به طور مستقیم وزن های اصطلاح خود را در یک سیستم IR در طول بازیابی مستقر کنیم.

این با روش‌های وزن‌دهی قبلی که نیاز به تنظیم بیشتر پارامترهای بازیابی برای دستیابی به عملکرد بازیابی بهینه دارند، متفاوت است، زیرا آنها وزن‌های ترم بدست‌آمده توسط اکتشافی را به‌جای بهینه‌سازی انتها به انتها بهینه می‌کنند. آنچه در مورد این سهولت استقرار مهم است این است که برای افزودن TW-BERT به فرآیند الگوریتم رتبه‌بندی نیازی به نرم‌افزار تخصصی یا به‌روزرسانی‌های سخت‌افزاری ندارد.

آیا گوگل در الگوریتم رتبه بندی خود از TW-BERT استفاده می کند؟

همانطور که قبلا ذکر شد، استقرار TW-BERT نسبتا آسان است. به نظر من، منطقی است که فرض کنیم سهولت استقرار، احتمال اضافه شدن این چارچوب به الگوریتم گوگل را افزایش می دهد. این بدان معناست که گوگل می تواند TW-BERT را به بخش رتبه بندی الگوریتم اضافه کند، بدون اینکه نیازی به به روز رسانی الگوریتم اصلی در مقیاس کامل باشد. جدای از سهولت استقرار، کیفیت دیگری که باید در حدس زدن اینکه آیا یک الگوریتم می تواند مورد استفاده قرار گیرد یا خیر، این است که الگوریتم تا چه حد در بهبود وضعیت فعلی هنر موفق است.

مقالات تحقیقاتی زیادی وجود دارند که موفقیت محدودی دارند یا پیشرفتی ندارند. این الگوریتم‌ها جالب هستند، اما منطقی است که فرض کنیم در الگوریتم گوگل قرار نخواهند گرفت. موارد مورد علاقه آنهایی هستند که بسیار موفق هستند و این مورد در مورد TW-BERT است. TW-BERT بسیار موفق است. آنها گفتند که به راحتی می توان آن را در یک الگوریتم رتبه بندی موجود قرار داد و عملکرد آن به همان اندازه “رتبه بندی عصبی متراکم” است. محققان توضیح دادند که چگونه سیستم های رتبه بندی فعلی را بهبود می بخشد:

با استفاده از این چارچوب‌های بازیابی، نشان می‌دهیم که روش وزن‌دهی اصطلاحی ما از استراتژی‌های وزن‌دهی دوره پایه برای وظایف درون دامنه بهتر عمل می‌کند. در وظایف خارج از دامنه، TW-BERT نسبت به استراتژی‌های وزن‌دهی پایه و همچنین رتبه‌بندی‌های عصبی متراکم بهبود می‌یابد. ما بیشتر کاربرد مدل خود را با ادغام آن با مدل‌های بسط پرس و جو موجود نشان می‌دهیم، که عملکرد را نسبت به جستجوی استاندارد و بازیابی متراکم در موارد صفر شات بهبود می‌بخشد. این انگیزه می‌دهد که کار ما می‌تواند بهبودهایی را در سیستم‌های بازیابی موجود با کمترین اصطکاک روی برد ارائه کند.»

بنابراین این دو دلیل خوب است که چرا TW-BERT ممکن است بخشی از الگوریتم رتبه‌بندی گوگل باشد.

  1. این یک بهبود کلی در چارچوب های رتبه بندی فعلی است
  2. استقرار آن آسان است

اگر گوگل TW-BERT را به کار گرفته باشد، ممکن است نوسانات رتبه‌بندی که ابزارهای نظارت سئو و اعضای جامعه بازاریابی جستجو در ماه گذشته گزارش کرده‌اند را توضیح دهد. به طور کلی، گوگل فقط برخی از تغییرات رتبه‌بندی را اعلام می‌کند، به‌ویژه زمانی که تأثیر قابل‌توجهی داشته باشند، مانند زمانی که Google الگوریتم BERT را اعلام کرد .

در غیاب تایید رسمی، ما فقط می توانیم در مورد احتمال اینکه TW-BERT بخشی از الگوریتم رتبه بندی جستجوی گوگل است، حدس بزنیم. با این وجود، TW-BERT یک چارچوب قابل توجه است که به نظر می رسد دقت سیستم های بازیابی اطلاعات را بهبود می بخشد و می تواند توسط گوگل استفاده شود.

پیمایش به بالا

%70 تخفیف کلیه محصولات به مدت محدود

ساعت
دقیقه
ثانیه