SEO

29 Июл, 2021

Стратегии Гугла и Яндекса: комментарии к новостям о развитии поисковиков

Звёзд: 1Звёзд: 2Звёзд: 3Звёзд: 4Звёзд: 5 (Проголосуй!)
Загрузка...

Print Friendly, PDF & Email

Яндекс рассказывает сказки про миллиарды долларов, вложенных в поиск, и стратегию «развития экспертного поиска», а Гугл внедряет Core Web Vitals и продолжает микшировать поисковую выдачу. Несколько новостей, связанных с развитием поисковых технологий, с моими комментариями и смайлами.

Содержание

Стратегия компании Яндекс и 1,5 миллиарда, вброшенных на ветер поиск

Начнем с Яндекса. Я его давно не люблю, хотя казалось бы, совсем нет за что :) Но это пока не взглянешь на подборку скриншотов, показывающих развитие его поисковой выдачи, пока в очередной раз не натолкнешься на высказывания его «научных экспертов» и пока не задумаешься об их стратегии и поведении на рынке, а не только в поисковой выдаче…

В общем, Яндекс отчитался, что за 5 лет вложил в «развитие поиска» более 1,5 миллиарда долларов. Больше всего ушло на строительство дата-центров, покупку техники, зарплаты сотрудникам и (дождались:) обучение алгоритмов ранжирования.

Текущий начальник поиска Яндекса рассказал об очередном витке стратегического гения, а именно: компания теперь хочет создать «максимально универсальный поиск, который ищет объекты во всех доступных источниках», кроме того будет «увеличивать инвестиции в развитие поисковика» (например, с помощью собственной технологии анализа информации сможет делать краткие выжимки из больших текстов) и работает над «экспертным поиском в области медицины, юриспруденции и финансов» (по сути вертикальными поисковыми сервисами, интегрированными в Яндекс).

В общем, направления мысли абсолютно предсказуемые — [спама и псевдо-научного контента] сервисов яндекса в поисковой выдаче станет еще больше. Судиться с ним за монополизацию собственной поисковой выдачи — как с Гуглом — никто и не думает. Так что доля Яндекса, по всей видимости, продолжит снижаться (каждый год падает ведь, да?). Ну, туда им и дорога, на мой памяркоуны взгляд, с их ярлыками и обобщениями.

Да, если бы меня спросили, то стратегию компании Яндекс в отношении развития поиска, я бы назвал по-современному так: «Когда поисковой спрос ничему не учит, хотя у меня есть тысяча и одно исследование про его развитие».

Единственное, что огорчает — это возможная деградация такого простого и эффективного микро-инструмента как Яндекс.Вордстат. Ведь чем меньше аудитория поиска, тем меньше там будет русскоязычных запросов и правильных текущих данных по всем нишам. Но замена найдется и для него, думаю, не проблема…

Core Web Vitals — что это, зачем и чего ожидать в будущем?

Google тоже много чего наобъявлял, но вот кое-что интересное из последнего, что меня лично заинтересовало.

В ранжировании начнут учитываться показатели Core Web Vitals, а именно:

  • время загрузки самого большого элемента страницы (обычно картинка или видео, часто какой-то скрипт);
  • скорость взаимодействия пользователя с элементами на странице (то есть как быстро он куда-то кликнет ну и куда, сосбтвенно);
  • и скорость передвижения пользователем по вкладкам и страницам в поисковой сессии (вообще, очень мутное общее определение там, но мы упростим:).

Все это вводится со стороны разработчиков браузера Chrome, которые сначала проводили на пользователях этого браузера эксперименты, а теперь внедряют эти факторы в ранжировании и говорят «вы сильно не волнуйтесь, если ваш сайт хороший, то и у вас все будет хорошо» :)

Конечно, верстка страниц всегда влияла на позиции в поисковой выдаче, не зря ведь даже «seo-верстка» как отдельное понятие появилось. Но раньше при ранжировании учитывалась в первую очередь совокупная СКОРОСТЬ ЗАГРУЗКИ СТРАНИЦЫ, места размещения основного контента в коде и его «захламленность» техническим контентом (например, большими таблицами стилей или множеством скриптов, особенно вверху файла), а также кликабельность некоторых кнопок (например, в интернет-магазинах — и то это подавалось, как отдельный набор метрик, т.н. «поведенческие факторы» не для всех кластеров).

Фактически, это все было про СКОРОСТЬ ЗАГРУЗКИ как следствие ЛЮБЫХ ПРОБЛЕМ — типа низкая скорость это универсальный фактор «недовольства», и этого достаточно.

Можно сказать, что цель поисковика была — заставить вебмастера расчистить код страницы и сфокусировать роботов на основном контенте каждой страницы, а также заставить хоть как-то этот контент структурировать.

Теперь же Гугл сменил позиционирование и заявляет, что хочет «to fix poor user experiences on your site» — то есть заставить вас улучшать плохое взаимодействие страниц с пользователем. И первыми под раздачу попали метрики, связанные со скоростью (кто бы сомневался), но уже намного более специфические.

Core Web Vitals появился в стандартном Вебмастере Гугла. И его графики будут ух как непонятны без интерпретаций)))

core web vitals что это

Я уже предчувствую, как русскоязычные те-кто-называет-себя-сеошниками, озолотятся снова на технических аудитах)

core web vitals google статистика запросов

Процесс распознавания новой сущности пошел :)

В стороне не останутся и сервисы, конечно, а также разработчики плагинов. Для вордпресса уже появился Jetpack Boost, который якобы оптимизирует «Core Web Vitals в один клик» (по факту — генерирует оптимизированные стили для каждой страницы, откладывает загрузку скриптов, которые посчитает несущественными, и внедряет lazy-loading для изображений). В общем, никогда такого не было, и вот опять…

Но самое интересное еще не просматривается в подзорную трубу. Вдумайтесь: никогда при ранжировании не учитывалось, ЧТО ИМЕННО у вас прописано в таблицах стилей, например, то есть какими там цветами и шрифтами обозначаются заголовки или любые куски контента.

Ну, это ведь как зайти в музей и в зале c картинами Писсарро смотреть на стенах черно-белые текстовые распечатки с описанием изображения в html-разметке)))

Поисковик знает, что привлечение внимания пользователя (и влияние на конверсию) основано на использовании заголовка для текста, к примеру, но связывает это исключительно с техническим тегом, обозначающим этот заголовок, а не с его величиной на странице.

В жизни это было бы как два рекламных плаката на стене одного и того же здания, только один на всю стену, а другой в уголке окна, при этом оба «согласованы» с администрацией как абсолютно одинаковые по размеру. И вот администрация через N лет решает замерить среди пользователей скорость восприятия каждого плаката — и понимает, что размеры какие-то… разные что ли? Прикольно получается…))))

Так что «ждем, надеемся и верим», что Core Vitals действительно когда-нибудь станут таковыми…

Размеченные видео-ролики в общей поисковой выдаче автоматом

Ладно, что там еще? А еще Гугл начал подгружать в общую выдачу размеченные видео-ролики и описательные тексты по его ключевым моментам. Ну, то есть теперь пользователь назначает метки-таймкоды, структурирует свой видео-ролик на блоки и по сути прописывает для этих блоков подзаголовки — и вуаля, эти ПОДЗАГОЛОВКИ в видео начинают показываться не в поиске ютуба, а в общем поиске Гугла. При этом с помощью ИИ внедряемый инструмент сможет определить такие ключевые моменты в ролике даже самостоятельно и затем генерировать прямые ссылки на них.

Видео метки в Гугл

Это, конечно, не прямой поиск по «динамическому контенту», тем более голосовой (когда я, например, прошу «окей, гугл, найди-ка мне в этом фильме все, что думает Иван Петрович о Марии Семеновне, и желательно в картинках)), но очевидный небольшой шаг в эту сторону, согласитесь.

Но если посмотреть на развитие ниши про «продвижение видео» на русском языке, быстро станет понятно, в какой пещере и каким огнивом пользуются пока русскоязычные пользователи:

продвижение видео поисковой спрос

Продвижение видео русскоязычным пользователям чаще всего интересно как услуга или сервис, и желательно бесплатно. Запросов с техническими аспектами фактически нет. А, вру, тегами для продвижения видео все еще интересуются :))))

Синхронный перевод текста — скоро и в поиске

Кстати, а вы заметили, что русско-английский перевод в Google Translate серьезно улучшил свое качество? Теперь даже криво-переведенные несколько лет назад тексты, которые я брал для примера того, почему не надо пользоваться онлайн-переводчиками при создании блоков контента на сайте, он исправляет на вполне вменяемые английские и русские фразы.

И да, проектов и стартапов по синхронному переводу все больше, и речь совсем не про услуги людей-переводчиков, как вы понимаете (хотя такие стартапы тоже есть и будут, несомненно — куда столько профессиональных переводчиков-то девать?))

***

Честно говоря, лет семь назад мне казалось, что все будет идти намного быстрее. Но сегодня я понимаю, почему интернет-поиск развивается медленнее, чем [мне] хотелось бы. Здесь нет запланированного старения, зато есть осознанная задержка развития стратегически «опасных» проектов. И дата-сервера, которые отжирают бюджеты. И заблуждения маркетологов и «научных сотрудников», которые внедряют то, что никогда не будет работать, но зато прикольно… И много других подводных камней, включая этически сомнительные концепции типа «социальной ответственности».

С точки зрения развития маркетинга на мой взгляд быстрее пока движутся японцы, балующиеся с моделями «безумной» рекламы, изменением точек контакта и разными другими вещами. И китайцы, у которых вертикальные сервисы безумными темпами строят какую-то антиутопию. Но это пока не про интернет-поиск и его развитие, к сожалению, и их Baidu и Яху на японском — просто динозавры по сравнению с поиском англоязычного Гугла.

Если стратегию Яндекса я спрогнозировал лет десять назад и она все еще воплощается в жизнь (ибо мне просто в какой-то момент стала понятна психология разработчиков и маркетологов поисковика), то с Гуглом все сложнее, конечно. Я до сих пор не могу понять, почему они так тупят и так медленно работают при наличии таких ресурсов и таких команд… Возможно, потому, что пытаются охватить весь мир?..

Ну, что есть, то есть — не самый плохой поиск все-таки. Работы всем сеошникам надолго хватит :)

Ссылки по темам, упоминавшимся в статье:

Вам понравится

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *