خصوصیت تازه که« گوگل لنز مالتی سرچ»( Google Lens Multisearch) نام دارد به این معنا است که افراد قادر خواهند بود برای توضیح چیزی که دنبالش اند، از یک تصویر بهره بگیرند.
به عنوان مثال اگر کسی لباسی پیدا کرد که از آن خوشش می آمد اما به جای رنگ زرد ، رنگ سبزش را می خواست، می تواند آن تصویر را بارگذاری کند و به گوگل بگوید که دنبال« سبز» بگردد. اگر گیاهی دارید که میخواهید بفهمید چطور باید از آن مراقبت کنید، اما نامش را نمی دانید، می توانید از آن عکسی بگیرید و« راهنمای مراقبت» را اضافه کنید تا بفهمید چطور باید با آن رفتار کنید.
گوگل این ابزار را« روشی کاملا تازه برای جست وجو » خواند و گفت که این بخشی از تلاشی است که مردم را ترغیب کند« از کادر جست وجو فراتر بروند و در باره آنچه می بینند سوال کنند».
هوش مصنوعی به روزرسانی های گوگل از این خصوصیت پشتیبانی می کند تا برای مردم یافتن چیزی را که دنبال آن اند، ساده تر کند.
این ویژگی، در آینده با« ام یوام»( MUM)، یا مدل یکپارچه چندکاره( Multitask Unified Model) بهبود می یابد؛ فناوری جدیدی که به گفته گوگل، جست وجو را بسیار آسان تر می کند.
چند وقتی است که گوگل روی این ابزار کار می کند و تعدادی از تغییرات ایجاد شده روی آن را سال گذشته در رویداد« سرچ آن»( Search On) منتشر کرد.
اکنون این ویژگی روی بتا عرضه می شود و می توان آن را در نسخه آی اواس و اندروید برنامه( اپ) پیدا کرد. البته این امر فعلا فقط برای کاربران در آمریکا در دسترس خواهد بود.
کاربران برای یافتن آن کافی است برنامه را باز کنند تا گزینه استفاده از دوربین یا صدای خود و همین طور متن ارائه شود.
- 14
- 3