Google продолжает активно развивать собственный поисковик, добавляя в него новые функции на основе искусственного интеллекта. Не так давно в сервисе появились сгенерированные ИИ ответы, которые представляют собой сводку ответов на пользовательский запрос вместе ссылками на источники. Однако похоже, что этот инструмент не всегда полезен и дело тут не в самом алгоритме, а в информации, которую он использует.
Один из пользователей интернета на этой неделе поделился историей, которая началась с того, что он захотел приготовить пиццу. Помимо самого рецепта он изучил данные по запросу «сыр не прилипает к пицце» и был сильно удивлён, получив необычный ответ в ИИ-поисковике Google. Дело в том, что в сводке содержалась следующая информация: «сыр может соскальзывать по ряду причин», а чтобы избежать этого, можно попробовать «добавить в соус 1/8 стакана нетоксичного клея, чтобы придать ему больше липкости».
Предполагается, что основой для этого совета стал комментарий 11-летней давности одного из пользователей платформы Reddit. Он также советовал добавить в соус для пиццы клей, но, очевидно, делал это в шутку. Совет добавить клей в пиццу наглядно демонстрирует, с чем можно столкнуться во время поиска информации с помощью ИИ-алгоритмов. Кроме того, нельзя исключать вероятности, что генеративные нейросети могут попросту что-то «выдумать», выдавая это за реальные данные.
Пользователи социальных сетей поделились другими примерами того, как функция ИИ-поиска Google давала неточные ответы. Например, ИИ заявил, что геологи рекомендуют людям съедать по одному небольшому камню а день. А в одном из ответов говорилось, что «собака играла в НХЛ».
Представитель Google, комментируя данный вопрос, сообщил, что такие ответы встречаются «чрезвычайно редко и не отражают опыт большинства людей». Он также добавил, что в большинстве случаев в обзорах «предоставляется высококачественная информация» и что перед запуском этой функции проводилось «обширное тестирование».
Комментарии (0)