چرا Google SGE در آزمایشگاه های گوگل گیر کرده است و چه اتفاقی می افتد؟

Google Search Generative Experience (SGE) قرار بود به عنوان یک آزمایش Google Labs در پایان سال 2023 منقضی شود، اما زمان آن به عنوان یک آزمایش بی سر و صدا تمدید شد و روشن کرد که SGE در آینده نزدیک برای جستجو نمی آید. با کمال تعجب، اجازه دادن به مایکروسافت ممکن است بهترین رویکرد ناخواسته برای گوگل بوده باشد.

استراتژی هوش مصنوعی گوگل برای جستجو

تصمیم گوگل برای حفظ SGE به عنوان یک پروژه Google Labs با روند گسترده‌تر تاریخ گوگل در ترجیح ادغام هوش مصنوعی در پس‌زمینه مطابقت دارد.

حضور هوش مصنوعی همیشه آشکار نیست، اما برای مدت طولانی‌تر از آنچه که اکثر مردم تصور می‌کنند، بخشی از جستجوی گوگل در پس‌زمینه بوده است.

اولین استفاده از هوش مصنوعی در جستجو به عنوان بخشی از الگوریتم رتبه بندی گوگل، سیستمی به نام RankBrain بود. RankBrain به الگوریتم‌های رتبه‌بندی کمک کرد تا بفهمند چگونه کلمات در جستارهای جستجو با مفاهیم در دنیای واقعی مرتبط هستند.

به گفته گوگل:

هنگامی که RankBrain را در سال 2015 راه اندازی کردیم، این اولین سیستم یادگیری عمیق بود که در جستجو مستقر شد. در آن زمان، پیشگام بود… RankBrain (همانطور که از نامش پیداست) برای کمک به رتبه بندی – یا تصمیم گیری بهترین ترتیب برای – نتایج جستجو استفاده می شود.

پیاده‌سازی بعدی Neural Matching بود که به الگوریتم‌های Google در درک مفاهیم گسترده‌تر در جستجوها و صفحات وب کمک کرد.

و یکی از شناخته شده ترین سیستم های هوش مصنوعی که گوگل راه اندازی کرده است، Multitask Unified Model است که با نام Google MUM نیز شناخته می شود. MUM یک سیستم هوش مصنوعی چندوجهی است که درک تصاویر و متن را در بر می گیرد و قادر است آن ها را در چارچوب هایی که در یک جمله یا یک عبارت جستجو نوشته شده است قرار دهد.

SpamBrain، هوش مصنوعی مبارزه با هرزنامه گوگل به احتمال زیاد یکی از مهم ترین پیاده سازی های هوش مصنوعی به عنوان بخشی از الگوریتم جستجوی گوگل است، زیرا به حذف سایت های با کیفیت پایین کمک می کند.

همه اینها نمونه هایی از رویکرد گوگل برای استفاده از هوش مصنوعی در پس زمینه برای حل مشکلات مختلف در جستجو به عنوان بخشی از الگوریتم هسته بزرگتر است.

این احتمال وجود دارد که گوگل به استفاده از هوش مصنوعی در پس‌زمینه ادامه می‌داد تا زمانی که مدل‌های زبان بزرگ مبتنی بر ترانسفورماتور (LLM) بتوانند در پیش‌زمینه قدم بگذارند.

اما ادغام ChatGPT توسط مایکروسافت در بینگ، گوگل را مجبور کرد تا اقداماتی را برای افزودن هوش مصنوعی به روشی پیش‌زمینه‌تر با تجربه مولد جستجو (SGE) انجام دهد.

چرا SGE را در Google Labs نگه دارید؟

با توجه به اینکه مایکروسافت ChatGPT را در بینگ ادغام کرده است، ممکن است عجیب به نظر برسد که گوگل اقدام مشابهی انجام نداده است و در عوض SGE را در آزمایشگاه های گوگل نگه می دارد. دلایل خوبی برای رویکرد گوگل وجود دارد.

یکی از اصول راهنمای گوگل برای استفاده از هوش مصنوعی این است که تنها زمانی از آن استفاده کنید که موفقیت این فناوری ثابت شود و به گونه ای پیاده سازی شود که بتوان به مسئولیت پذیری آن اعتماد کرد و اینها دو موردی هستند که امروزه هوش مصنوعی مولد قادر به انجام آنها نیست.

حداقل سه مشکل بزرگ وجود دارد که باید قبل از اینکه هوش مصنوعی با موفقیت در پیش زمینه جستجو ادغام شود، حل شود:

  1. از LLM ها نمی توان به عنوان یک سیستم بازیابی اطلاعات استفاده کرد زیرا برای افزودن داده های جدید نیاز به آموزش کامل دارد. .
  2. معماری ترانسفورماتور ناکارآمد و پرهزینه است.
  3. هوش مصنوعی مولد تمایل به ایجاد حقایق اشتباه دارد، پدیده ای که به عنوان توهم شناخته می شود.

چرا هوش مصنوعی نمی تواند به عنوان موتور جستجو استفاده شود؟

یکی از مهم‌ترین مشکلاتی که باید قبل از استفاده از هوش مصنوعی به‌عنوان پشتیبان و پیشانی موتور جستجو حل شود، این است که LLM‌ها نمی‌توانند به‌عنوان یک فهرست جستجو که در آن داده‌های جدید به طور مداوم اضافه می‌شوند، عمل کنند.

به عبارت ساده، آنچه اتفاق می‌افتد این است که در یک موتور جستجوی معمولی، افزودن صفحات وب جدید فرآیندی است که در آن موتور جستجو معنای معنایی کلمات و عبارات درون متن را محاسبه می‌کند (فرآیندی به نام «جاسازی»)، که آنها را قابل جستجو و جستجو می‌کند. آماده ادغام در شاخص

پس از آن موتور جستجو باید کل فهرست را به روز کند تا بفهمد (به اصطلاح) کجا صفحات وب جدید در فهرست کلی جستجو قرار می گیرند.

افزودن صفحات وب جدید می تواند نحوه درک و ارتباط موتور جستجو با تمام صفحات وب دیگری را که در مورد آنها می داند تغییر دهد، بنابراین تمام صفحات وب را در فهرست خود مرور می کند و در صورت لزوم روابط آنها را با یکدیگر به روز می کند. این یک ساده‌سازی برای ارتباط مفهوم کلی از معنای افزودن صفحات وب جدید به فهرست جستجو است.

برخلاف فناوری جستجوی فعلی، LLMها نمی‌توانند صفحات وب جدیدی را به فهرست اضافه کنند زیرا عمل افزودن داده‌های جدید مستلزم بازآموزی کامل کل LLM است.

گوگل در حال تحقیق در مورد چگونگی حل این مشکل برای ایجاد یک موتور جستجوی LLM مبتنی بر ترانسفورماتور است، اما مشکل حل نشده است، حتی نزدیک نیست.

برای درک اینکه چرا این اتفاق می‌افتد، نگاهی گذرا به مقاله تحقیقاتی اخیر گوگل که توسط مارک نایورک و دونالد متزلر (و چندین نویسنده دیگر) با هم نویسندگی شده است، مفید است. من نام آنها را ذکر می کنم زیرا هر دوی این محققین تقریباً همیشه با برخی از مهم ترین تحقیقاتی که از گوگل منتشر می شود مرتبط هستند. بنابراین اگر نام هر یک از آنها روی آن باشد، احتمالاً تحقیق بسیار مهم است.

در توضیح زیر از فهرست جستجو به عنوان حافظه یاد می شود زیرا فهرست جستجو حافظه ای است از آنچه نمایه شده است.

عنوان مقاله: “DSI++: به روز رسانی حافظه ترانسفورماتور با اسناد جدید” (PDF)

استفاده از LLM به عنوان موتورهای جستجو فرآیندی است که از فناوری به نام شاخص های جستجوی متمایز (DSIs) استفاده می کند. فناوری فهرست جستجوی فعلی به عنوان رمزگذار دوگانه ارجاع داده می شود.

مقاله پژوهشی توضیح می دهد:

ساخت شاخص با استفاده از DSI شامل آموزش یک مدل ترانسفورماتور است. بنابراین، هر بار که بدنه اصلی به‌روزرسانی می‌شود، مدل باید از ابتدا مجدداً آموزش داده شود، بنابراین هزینه‌های محاسباتی بسیار بالایی در مقایسه با رمزگذارهای دوگانه متحمل می‌شود.

این مقاله در ادامه راه‌هایی را برای حل مشکل LLMهایی که «فراموش می‌کنند» را بررسی می‌کند، اما در پایان مطالعه آنها بیان می‌کنند که آنها فقط به سمت درک بهتر آنچه که باید در تحقیقات آینده حل شود پیشرفت کرده‌اند.

نتیجه می گیرند:

“در این مطالعه، ما پدیده فراموشی را در رابطه با افزودن اسناد جدید و متمایز به نمایه ساز بررسی می کنیم. توجه به این نکته مهم است که وقتی یک سند جدید سندی که قبلاً نمایه شده است را رد یا اصلاح می کند، رفتار مدل غیرقابل پیش بینی می شود و نیاز به تحلیل بیشتری دارد.

علاوه بر این، ما اثربخشی روش پیشنهادی خود را بر روی یک مجموعه داده بزرگتر، مانند مجموعه داده کامل MS MARCO بررسی می‌کنیم. با این حال، شایان ذکر است که با این مجموعه داده بزرگتر، روش فراموشی قابل توجهی را نشان می دهد. در نتیجه، تحقیقات بیشتری برای بهبود عملکرد مدل ضروری است، به‌ویژه زمانی که با مجموعه داده‌هایی در مقیاس بزرگ‌تر سروکار داریم.»

LLM ها نمی توانند خودشان را بررسی کنند

گوگل و بسیاری دیگر نیز در حال تحقیق در مورد روش‌های متعددی هستند تا بتوانند خود را از طریق هوش مصنوعی بررسی کنند تا از ارائه اطلاعات نادرست (که توهم نامیده می‌شود) جلوگیری کنند. اما تاکنون این تحقیقات پیشرفت چشمگیری نداشته است.

تجربه بینگ از هوش مصنوعی در پیش زمینه

بینگ مسیر متفاوتی را با گنجاندن هوش مصنوعی مستقیماً در رابط جستجوی خود در یک رویکرد ترکیبی در پیش گرفت که به یک موتور جستجوی سنتی با پیشانی هوش مصنوعی پیوست. این نوع جدید از موتورهای جستجو، تجربه جستجو را بهبود بخشید و بینگ را در رقابت برای کاربران موتورهای جستجو متمایز کرد.

ادغام هوش مصنوعی بینگ در ابتدا سر و صدای قابل توجهی ایجاد کرد و کاربران را مجذوب جدید بودن رابط جستجوی مبتنی بر هوش مصنوعی کرد. این منجر به افزایش تعامل کاربران بینگ شد.

اما پس از نزدیک به یک سال پرهیاهو، سهم بازار بینگ تنها با افزایش جزئی مواجه شد. گزارش‌های اخیر، از جمله یکی از Boston Globe، حاکی از رشد کمتر از ۱ درصدی سهم بازار از زمان معرفی بینگ چت است.

استراتژی گوگل در آینده تایید شده است

تجربه بینگ نشان می دهد که هوش مصنوعی در پیش زمینه یک موتور جستجو ممکن است آنطور که انتظار می رفت موثر نباشد. افزایش اندک در سهم بازار سوالاتی را در مورد دوام طولانی مدت یک موتور جستجوی مبتنی بر چت ایجاد می کند و رویکرد احتیاطی Google در استفاده از هوش مصنوعی در پس زمینه را تأیید می کند.

تمرکز گوگل بر هوش مصنوعی در پس‌زمینه جستجو، با توجه به شکست بینگ در وادار کردن کاربران به کنار گذاشتن گوگل برای بینگ، اثبات می‌شود.

استراتژی حفظ هوش مصنوعی در پس‌زمینه، جایی که در این نقطه از زمان بهترین عملکرد را دارد، به Google اجازه داد تا کاربران را حفظ کند در حالی که فناوری جستجوی هوش مصنوعی در آزمایشگاه‌های Google در جایی که متعلق به آن است بالغ می‌شود.

رویکرد بینگ در استفاده از هوش مصنوعی در پیش‌زمینه اکنون تقریباً به عنوان یک داستان هشداردهنده در مورد مشکلات ناشی از عجله کردن یک فناوری قبل از درک کامل مزایای آن عمل می‌کند و بینشی در مورد محدودیت‌های آن رویکرد ارائه می‌دهد.

از قضا، مایکروسافت در حال یافتن راه های بهتری برای ادغام هوش مصنوعی به عنوان یک فناوری پس زمینه در قالب ویژگی های مفیدی است که به محصولات اداری مبتنی بر ابر خود اضافه شده است.

آینده هوش مصنوعی در جستجو

وضعیت فعلی فناوری هوش مصنوعی نشان می‌دهد که به‌عنوان ابزاری که از عملکردهای یک موتور جستجو پشتیبانی می‌کند، به جای اینکه به‌عنوان کل قسمت‌های پشتی و جلویی یک موتور جستجو یا حتی به‌عنوان یک رویکرد ترکیبی که کاربران از اتخاذ آن خودداری کرده‌اند، مؤثرتر باشد.

استراتژی Google برای انتشار فناوری‌های جدید تنها زمانی که کاملاً آزمایش شده باشند، توضیح می‌دهد که چرا جستجوی مولد به آزمایشگاه‌های Google تعلق دارد.

مطمئناً هوش مصنوعی نقش جسورانه‌تری در جستجو خواهد داشت، اما آن روز قطعا امروز نیست. انتظار می رود که گوگل ویژگی های مبتنی بر هوش مصنوعی بیشتری را به محصولات بیشتری اضافه کند و شاید تعجب آور نباشد که مایکروسافت در این مسیر ادامه دهد.

 

5/5 - (1 امتیاز)

لینک کوتاه مقاله : https://5ia.ir/unztKx
کوتاه کننده لینک
کد QR :
اشتراک گذاری

شاید این مطالب را هم دوست داشته باشید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *