
Google объявила о создании «значительно более мощного агента Gemini Deep Research», который скоро появится в потребительских приложениях и уже доступен для разработчиков.
Сегодняшнее объявление ориентировано на разработчиков. Google представила новый Interactions API, который служит «единым интерфейсом для взаимодействия» с моделями (например, Gemini 3 Pro) и агентами. Новый API Google отражает последние возможности моделей, такие как «мышление» и расширенное использование инструментов, выходящее за рамки генерации текста.
Мы расширим встроенных агентов и представим возможность создавать и подключать собственных агентов. Это позволит вам объединять модели Gemini, встроенных агентов Google и ваших пользовательских агентов с помощью одного API.
Первым встроенным агентом является Gemini Deep Research (Preview). Сторонние разработчики теперь могут интегрировать «расширенные возможности автономного исследования» в свои приложения.
«Оптимизированный для длительного сбора контекста и задач синтеза», агент Gemini Deep Research использует Gemini 3 Pro. Google утверждает, что он «специально обучен для снижения галлюцинаций и повышения качества отчетов при выполнении сложных задач».
В ответ на ваш запрос он «формулирует запросы, читает результаты, выявляет пробелы в знаниях и выполняет повторный поиск». Также предусмотрен «значительно улучшенный веб-поиск, позволяющий глубоко просматривать сайты для получения конкретных данных».
Масштабируя многоэтапное обучение с подкреплением для поиска, агент с высокой точностью автономно перемещается по сложным информационным ландшафтам.
По результатам тестов, Google отмечает передовые результаты в Humanity’s Last Exam (логическое мышление и знания), DeepSearchQA (комплексное веб-исследование) и BrowseComp (поиск труднодоступных фактов), которые превосходят Gemini 3 Pro.
Gemini Deep Research достигает 46,4% (по сравнению с 43,2% у Gemini 3 Pro) по полному набору HLE, 66,1% (по сравнению с 56,6%) по DeepSearchQA и высоких 59,2% (по сравнению с 49,4%) по BrowseComp:

Все эти улучшения, которые разработчики могут начать тестировать уже сегодня (в Google AI Studio), «скоро» будут доступны для потребительских приложений Google, включая Gemini, Google Поиск и NotebookLM.