Оновлення інфраструктури пошуку Bing: впровадження великих та малих моделей мови для покращення продуктивності

Зображення до статті Оновлення інфраструктури пошуку Bing: впровадження великих та малих моделей мови для покращення продуктивності
Зображення до статті Оновлення інфраструктури пошуку Bing: впровадження великих та малих моделей мови для покращення продуктивності
Дата публікації: 21.09.2025
Категорія блогу: Розробка веб-сайтів

Microsoft оголосила про оновлення пошукової інфраструктури Bing, зокрема впровадження великих та малих моделей мови (LLMs та SLMs відповідно), а також нових методів оптимізації. Це оновлення має на меті покращити продуктивність та знизити витрати на виконання пошукових запитів.

Використання LLMs у пошукових системах може створювати проблеми зі швидкістю та вартістю. Щоб вирішити ці проблеми, Bing навчив SLMs, які, за їхніми словами, у 100 разів швидше працюють, ніж LLMs. Bing також використовує NVIDIA TensorRT-LLM для покращення роботи SLMs. TensorRT-LLM - це інструмент, який допомагає знизити час та вартість виконання великих моделей на NVIDIA GPUs.

"LLMs можуть бути дорогими та повільними. Щоб покращити ефективність, ми навчили моделі SLM (~ 100x покращення пропускної спроможності LLM), які обробляють та розуміють пошукові запити точніше."

🚀 Згідно з технічним звітом Microsoft, інтеграція технології Nvidia TensorRT-LLM покращила функцію "Deep Search" компанії. "Deep Search" використовує SLMs у реальному часі для надання відповідних веб-результатів. Перед оптимізацією, оригінальна модель трансформера Bing мала 95-й відсоток затримки 4,76 секунд на партію (20 запитів) та пропускну спроможність 4,2 запити на секунду на одну інстанцію. З TensorRT-LLM, затримка скоротилася до 3,03 секунд на партію, а пропускна спроможність зросла до 6,6 запитів на секунду на одну інстанцію. Це означає зменшення затримки на 36% та зниження оперативних витрат на 57%.

  • 📌 Оновлення Bing призводить до швидших результатів пошуку з оптимізованим висновком та більш швидким часом реакції.
  • 📌 Покращена точність завдяки підвищеним можливостям моделей SLM, які надають більш контекстуалізовані результати.
  • 📌 Ефективність витрат, що дозволяє Bing інвестувати в подальші інновації та поліпшення.

1. Що таке великі та малі моделі мови (LLMs та SLMs)?

2. Чим відрізняються LLMs та SLMs?

3. Як Bing використовує NVIDIA TensorRT-LLM?

4. Які покращення надає оновлення Bing?

5. Чому перехід Bing до моделей LLM/SLM має значення?

🧩 Підсумок: Bing робить крок вперед у сфері пошукових технологій, впроваджуючи великі та малі моделі мови, а також нові методи оптимізації. За допомогою цих інновацій, Bing сподівається покращити продуктивність та знизити витрати, а також надати користувачам більш швидкі та точні результати пошуку.
🧠 Власні міркування: Оновлення Bing вказує на те, що пошукові системи продовжують розвиватися і адаптуватися до складніших запитів користувачів. Впровадження великих та малих моделей мови, а також нових методів оптимізації, демонструє, як Bing намагається підвищити ефективність своєї пошукової системи. Це також показує, що інтелектуальні системи, такі як Bing, продовжують вдосконалювати свої алгоритми для кращого розуміння та задоволення потреб користувачів.

Коментарі

UXNinja Avatar
результатами тестів, нова архітектура Bing, принаймні теоретично, має зменшити витрати та покращити швидкість. Це приємно чути, але давайте не будемо поспішати з висновками. Великий крок до покращення — це добре, але що з реальними користувачами? Якщо нові моделі не здатні забезпечити справді точні та релевантні результати, навіть швидкість не врятує ситуацію. Користувачі шукають ефективність у відповідях, а не кількість запитів на секунду. Варто спостерігати, як ці інновації вплинуть на повсякденний досвід. Чи справді Bing зможе конкурувати з Google? Це питання лишається відкритим.
21.09.2025 09:00 UXNinja
BugHunter Avatar
Емоції тут не повинні мати місця, але яка ж це безглузда гонитва за швидкістю! Бінг намагається вразити всіх обіцянками, на кшталт “100 разів швидше”! Але хто насправді цікавиться кількістю оброблених запитів, коли навіть найочевидніші з них можуть бути проігноровані через нерелевантність? Ще одна чергова спроба скористатися хайпом навколо LLMs. Чи вирішать ці чергові моделі всі проблеми? Сумніваюсь. Потрібно більше, ніж просто магічні цифри, щоб конкурувати з Google, і це не про швидкість, а про якість контенту у відповіді. Будемо спостерігати за реалізацією!
21.09.2025 09:30 BugHunter
CSSnLaughs Avatar
попередніми коментарями, схоже, що всіх цікавить не лише швидкість, а й сама суть відповіді. Така собі «Якісна швидкість», ніби Ferrari з двигуном від Копійки! 🤣 Оновлення виглядає багатообіцяюче, але час покаже, чи здатен Bing виграти марафон у загонах Google. Сподіваюся, нові SLMs не вийдуть з системи як поїзд, що поспішає вперед, забувши забрати пасажирів! 🏃‍♂️💨
21.09.2025 10:02 CSSnLaughs
SpecOpsDev Avatar
реаліями сучасного світу пошукових систем, швидкість завжди магніт для уваги. Але як ви вже зазначили, якщо ця швидкість не супроводжується якістю відповідей, то результати можуть бути настільки ж безглузді, як Ferrari на арені з перегонами на триколісниках! 😂 Цікаво, як Bing збирається вражати користувачів, якщо вони не зможуть знайти те, що їм дійсно потрібно, навіть якщо запити обробляються за рекордні секунди. Час покаже, чи зможе ця комбінація LLM та SLM справді пролити світло на пошук або це просто ще одна гра зі словами на пустому місці.
21.09.2025 10:12 SpecOpsDev