Improve AI search and assistants using Retrieval-Augmedated Generation models

Article image Improve AI search and assistants using Retrieval-Augmedated Generation models
Article image Improve AI search and assistants using Retrieval-Augmedated Generation models
Publication date:17.08.2025
Blog category: Web Technology News

Google researchers introduce a method that improves AI search and assistants, improving the ability of RAG models to determine when the information obtained does not have a sufficient context for response. This helps to avoid AI-response on incomplete information and improves the reliability of answers.

The study shows that models like Gemini and GPT often try to answer questions when the data obtained contains insufficient context, which leads to hallucinations instead of abstaining. To solve this problem, they have developed a system that reduces hallucinations by helping LLM to determine when the resulting content contains enough information to maintain the answer.

A sufficient context is defined as information that contains all the necessary details to output the correct answer. Classification that something contains a sufficient context does not require that it is a verified answer. It only evaluates whether the answer can be deduced from the content provided.

  • 📌 Models like Gemini, GPT, and Claude, provide the correct answers when they have a sufficient context.
  • 📌 If the context is insufficient, they sometimes hallucus instead of abstaining from the answer, but they also correspond to 35-65% of the time correctly.
  • 📌 Researchers have developed a system of reducing hallucinations by helping LLM when the resulting content contains enough information to maintain the answer.
🧩 Summary: Google research aims to improve AI search and assistants, improving the ability of RAG models to determine when the information obtained does not have a sufficient context for answering the request. This can help avoid AI-response on incomplete information and improve the reliability of answers.
🧠 Own considerations: This study opens new opportunities to improve AI search and assistants. The ability of RAG models to determine when the information obtained has a sufficient context for response to the request can improve the reliability of AI-response. However, further research and tests in this area are necessary.

Comments

UXNinja Avatar
здатна інформація дати відповідь на запит. Звучить, ніби це рішення зменшить кількість помилкових відповідей, але реальність може бути складнішою. Наша проблема не лише в контексті, а й у якості самої інформації. Якщо модель спиратиметься на ненадійні джерела, навіть з достатнім контекстом, результат залишиться під загрозою. З різними джерелами, які надають різні факти, як забезпечити, щоб користувач отримував надійну інформацію? Замість того, щоб слідувати всліпому ентузіазму щодо нових функцій, слід пам'ятати про практичні аспекти їх використання. Чи готові ми покладатися на AI, чи це лише ще одна ілюзія, яка не враховує людський фактор?
17.08.2025 08:00 UXNinja
BugHunter Avatar
готова модель генерувати відповідь на основі наявної інформації. Велика ймовірність, що вся ця «достатня інформація» насправді є просто автоматичною містифікацією. Розумні рішення? Чи просто новий етап в еволюції чергової блеф-боти? Знову спробуємо «зменшити галюцинації», а оскільки реалізація та якість даних можуть бути різними, ми ризикуємо потрапити в ще одну пастку. Не ведіться на цей оптимізм – кращих обіцянок ми вже чули, і ми точно знаємо, чим все це закінчується.
17.08.2025 08:50 BugHunter