- Что показало исследование Oumi
- Точность Gemini 2 и Gemini 3
- Методика проверки и ее недостатки
- Главный парадокс: ответы противоречат источникам
- Реакция Google на критику
- Почему это опасно для пользователей
Миллион ошибок в час: ИИ-поиск Google выдает ложные ответы без предупреждения
ИИ-ассистент Google под названием Gemini генерирует миллионы заведомо неверных ответов каждый день, не предупреждая пользователей об ошибках.
К такому выводу пришли специалисты компании Oumi, проверившие точность нейросети с помощью бенчмарка SimpleQA, а результаты опубликованы на портале TechSpot.
Каждый десятый ответ ИИ-помощника содержит фактические ошибки, а в версии Gemini 3 расхождения с источниками достигли 56%.

Что показало исследование Oumi
Точность Gemini 2 и Gemini 3
В октябре 2025 года точность Gemini версии 2 составляла 85%.
К февралю 2026 года, когда стала доступна Gemini 3, этот показатель подняли до 91%.
Таким образом, Google осведомлен о проблеме и пытается ее исправить, но до идеала далеко.
Методика проверки и ее недостатки
Специалисты Oumi использовали собственные ИИ-инструменты для проверки ответов Gemini, фактически натравив одну нейросеть на другую.
TechSpot отмечает, что такой подход может приводить к дополнительным ошибкам при подсчете результатов.
Кроме того, ИИ-ассистент Google генерирует разные ответы на один и тот же запрос, даже если между генерациями прошло всего несколько секунд.
Главный парадокс: ответы противоречат источникам
Gemini прикрепляет к своим ответам ссылки на источники, но регулярно бывает так, что содержание ответа не совпадает с тем, что указано в этих источниках.
В версии Gemini 2 расхождения фиксировались в 37% поисковых запросов.
После выхода Gemini 3 этот показатель вырос до 56%, что вызывает серьезные вопросы к надежности сервиса.
Реакция Google на критику
В корпорации раскритиковали результаты исследования Oumi, назвав их ошибочными и не отражающими реальное поведение пользователей.
При этом в Google не отрицают, что Gemini 3 свойственно ошибаться.
Работая независимо от Google Search, эта нейросеть выдает ложные ответы в 28% случаев, признали в компании.
Почему это опасно для пользователей
Многие люди принимают ответы ИИ-ассистента на веру, не подозревая, что каждый десятый ответ может быть ложным.
Нейросеть никак не подчеркивает свою неуверенность и не предупреждает о возможных ошибках.
Особенно критично это для медицинских, юридических или финансовых запросов, где цена ошибки особенно высока.