2 Май, 2011

Интервью: Как оптимизировался интернет-магазин Wikimart.ru

Алексей Чекушин, аналитик торгового центра Wikimart.ru, рассказывает о продвижении этого проекта и различных аспектах организации внутреннего seo. Отрывок из программы «Топ Эксперт» на МегаиндексТв. Текстовая версия + видео. Рекомендую всем, кто занимается или планирует заниматься продвижением крупных интернет-магазинов.

Викимарт — это онлайновый торговый центр. Его принципиальное отличие от интернет-магазина — в бизнес-схеме работы. Интернет-магазин сам продает какие-то товары, мы — это торговый центр, куда может прийти посетитель и купить товар у какого-то другого магазина через наш интерфейс и наш колл-центр. При этом магазин [на нашей площадке] платит деньги не за клики, не за что-то еще, а за каждый проданный и доставленный товар. То есть фактически мы планируем стать русским Ебэем, но по более прогрессивной бизнес-схеме.

Как оптимизировали wikimart.ru

Seo — это один из основынх источников трафика Викимарта, в декабре 2010г. среднесуточный трафик был около 70000 человек. Начинали год примерно с 10000 в сутки и вышли на такие вот значительные цифры.

— Я правильно понимаю, что фактически на вашем сайте отсутствует уникальный контент, ваш принцип работы таков, что вы забираете информацию о товарах у других магазинов и уже на них перенаправляете трафик?

Мы не перенаправляем трафик, весь заказ проходит через наш интерфейс. Но правда то, что большинство контента на сайте не является уникальным.

— Это интересно, т.к. нередко на конференциях и семинарах приходится слышать, что обязательно нужен уникальный контент и без него справиться очень сложно…

При продвижении такого большого сайта был кейс, который в принципе не встречается при продвижении более мелких сайтов — этот кейс называется «полная индексация всего сайта«.

На Викимарте на данный момент порядка 1,5 миллиона страниц, которые потенциально могут принести трафик. Задача была загнать их все в индекс. Начинали мы с цифр где-то 200-300 тысяч страниц. Проблемы были как и в обходе сайта роботом, так и в принятии решения поисковиком после посещения роботом, добавлять или нет страницу в индекс.

Мы нашли решение для первой ситуации — это было сделано для Гугла, и нашли решение, как сделать так, чтобы страницы даже с неуникальным контентом попадали в индекс.

— Можешь немножко поподробнее этот момент разобрать? Особенно интересно, какием образом страницу удвалось поднять выше в поисковой выдаче, чем оригинал?

Я не могу сказать, что нам всегда удавалось поднять выше, чем оригинал — ясное дело, что не всегда эта задача реализуема. Часто мы были ниже, но тем не менее приносили трафик.

А как удалось загнать? Мы сделали простую достаточно аналитику: посмотрели, по каким страницам ходит робот и сделали «апдейтную аналитику».

То есть, когда происходит текстовый апдейт в Яндексе, мы пробиваем индексацию всех страниц и делаем сравнение индексов — какие страницы попали в индекс, какие выпали, какие остались, какие были посещены и не попали в индекс. Исходя из этого строятся различные срезы, которые позволили нам найти решение, как загонять такие страницы в индекс.

Оказалось, что от объема уникальности контента это не сильно зависит. Страницы даже с контентом от 1000 символов могли не попасть в индекс, и вероятность попадания составляла изначально около 40%.

Основная проблема была со страницами моделей. Дело в том, что Яндекс по-разному индексирует разные страницы и по-разному принимает решение об их индексации.

— То есть могут быть даже страницы одинаковые, по шаблону, но разных кластеров, товарных групп…

Даже в одной товарной группе два абсолютно одинаковых товара, различается только id и описание, — но один в индексе, а другой нет. Это был типичный случай.

Оказалось, что нужно просто сделать так, чтобы Яндекс понимал, что 1) эта страница — это страница карточки товара 2) что этот товар можно купить на сайте.

Когда для Яндекса стали понятны эти две вещи, тогда у нас пошла индексация.

— Возникает понимание, за счет чего можно это сделать — наверно, это указание цены и подобных моментов. Но возникает вопрос: вы решили проблему индексирования, а по запросам высокочастотным вы продвигаете сайт?

Мы продвигаем сайт и по высокочастотным, и по низкочастотным запросам.

— Возникают какие-то проблемы или наоборот бонусы от того, что сайт такой необычный?

Из этого возникает проблема, она связана с текущими алгоритмами Яндекса. Когда мы продвигаем сайт, самое простое, что можно сделать — заделаться под похожий сайт уже в топе и за счет этого выйти наверх. Однако, сайт у нас один, структура всех разделов одна, и что делать, в общем-то, непонятно, когда нет похожих сайтов.

Мы решили эту проблему так: создали так называемый seo-конструктор — это система, которая позволяет оптимизатору, выставляя определенные значения, менять определенные места в коде страницы без изменения его внешнего вида, и таким образом подстраиваться под то, что есть в топе.

— По моему опыту, такое сложно реализовать в компаниях, посокльку приходится провеодить существенную работу над доработкой самого сайта.

Совершенно верно, эта задача делалась в течение более чем 3 недель группой программистов.

— Обычно клиенты неохотно идут на подобные доработки. Большинство даже не понимает, что это может быть настолько необходимо для seo. Вроде бы непонятно, что делают семь человек над одним сайтом — обычно ищут одного оптимизатора, на 40 тысяч рублей…

Наверно, у вас есть очень интересные аналитические возможности для сравнения между разными тематиками, насколько доля запросов однословных соотносится со шлейфом низкочастотников — можно какие-то примеры привести?

Да, есть диаметрально противоположные примеры. Но основная тенденция такова, что доля низкочастотного трафика доминирует над высокочастотным. Но если задумываться о коммерческой эффективности, то во многих тематиках одно-двух словных высокочастотные запросы будут продавать гораздо больше.

Как пример, тематика «радиотелефоны», где люди мало знают о конкретных моделях, поэтому запрос «радиотелефон» является продающим. У нас был опыт: как только этот запрос появился в топ-10, сразу пошли продажи в этой тематике.

Кроме того, низкочастотные запросы бывают разной конверсии. Недавно наш второй аналитик делал анализ конверсии по нашему сайту — оказалось, что лучше всего среди низкочастотных продают запросы с уточняющим словом «купить», как нам подсказывает капитан Очевидность, и, как ни странно, «Москва», «в Москве» — они являются более продающими.

— Алексей, чем занимается аналитик в Викимарте?

Роль аналитика на данный момент весьма обширна. Основная задача — это мониторинг всего процесса продвижения.

Когда речь идет о процессе продвижения сайта из 10 страничек, мониторинг заключается в чем: посмотреть позиции, ссылочки и т.д.

Когда мы работаем с крупным проектом, нам необходимо отслеживать все уровни, начиная с появления страницы на сайте, насоклько она корректна для seo, проходить дальше все уровни — посещение поисковым роботом, релевантность, ранжирование, и т.д. Все эти уровни требуется оценивать и обслуживать. Естественно, для этого требуется своя аналитическая часть, самописная аналитическая система, которую мы уже для себя сделали.

Вторая задача — это внесение изменений на сайт, то есть через аналитика идет полностью работа с техническими заданиями программистам компании.

Третья задача — работа с внутренними сервисами, то есть через аналитика идут техзадания на разработку внутренних сервисов.

Четвертое — это собственно аналитика поисковых алгоритмов.

— Что в Викимарте делают семь оптимизаторов — почему недостаточно одного?

На самом деле, уже не семь, а восемь. И будет человек 15-20. Зачем это нужно…

— В отделе seo? У меня это даже в голове не умещается…

Да, чтобы продвигать один сайт… На самом деле все очень просто. Викимарт — это такой сайт, где отдельные товарные категории, которых сейчас 3000, являются фактически отдельным сайтом.

Например, категория «Ноутбуки» — там семантика идет по всем ноутбукам, соответственно в конкурентах тематические сайты типа notik.ru и т.д. Нам нужно конкурировать с ними, занимать лидирующие позиции.

Основных товарных категорий, которые приносят 90% оборота, у нас порядка 300. Сколько категорий может вести один оптимизатор? Фактически, сайтов. В зависимости от уровня автоматизации и требований уровня достижимого топа — от 10 до 30, не больше.

— Есть компании, которые утверждают, что их специалисты ведут по 150 проектов…

Вопрос здесь в коммерческой эффективности продвижения. Если работать по принципу «я написал текст, закупил ссылки, а дальше карма — запрос вышел или нет», то такой подход вполне реализуем, можно работать с самописными агрегаторами либо существующими.

А если нам нужно вывести запрос, мы предлагаем оптимизатору любые ресурсы типа «хочешь текст — на текст, ссылки — держи любые ссылки, правки на сайте — да, пожалуйста, но запрос ты должен вывести», тогда существенно сужается количество запросов, с которыми оптимизатор может работать.

Плюс помимо оптимизации необходима, конечно, аналитика — у нас сейчас ею занимаются 2 человека, а будут 4, поскольку задач очень много.

В задачи аналитики позже войдет и полноценное формирование ссылочного окружения, не только оптимизаторского, а вообще всего.

Плюс конечно, это разработка — сейчас работают 2 программиста, а будет 4-5.

— У нас получилась неплохая презентация Викимарта, я думаю, кто-то из слушателей уже мечтает там работать…

Каким образом вы решили проблему прописывания тайтлов, каких-то еще элементов, генерации текста для такого большого количества страниц? Вы же не вручную это все прописываете…

Да, не вручную, у нас реализована следующая система: есть 4 основных типа страниц, которые участвуют в продвижении, и для каждого из них мы можем прописать шаблон, в котором есть такие переменные, допустим, как название товарной категории, ее синонимы, название бренда — синонимы бренда — перевод бренда, и т.д.

Исходя из этих шаблонов тайтлы задаются по всему сайту. Если у какой-то страницы тайтл прописан вручную (а это можно сделать для любой пригодной для продвижения страницы), то вводится он. Оптимизатор ставит свой тайтл, а для всего сайта выбирается наиболее оптимальный по шаблону.

— Какие рекомендации вы могли бы дать веб-разработчику по созданию сайта для seo — на что делать упор? Например, не использовать такие технологии как Ajax для скрытия текста…

Когда сайт создается под seo, нужно понимать, что мы создаем сайт сейчас, а существовать он будет долго. Чтобы не пришлось потом его переделывать и чтобы оптимизатор мог с ним работать максимально удобно, должна быть максимально гибкая возможность проведения внутреннего seo.

В идеале — вплоть до того, чтобы на сайте были блоки текста и остального контента (меню, картинок и др.), которые можно менять в коде местами без изменения визуального отображения. То есть максимальная гибкость кода при том, что сайт визуально остается тем же самым.

Я не стал бы категорично относиться к java-скрипту, аяксу — они имеют свое применение, например, когда нам нужно скрыть от поисковика какой-то контент. Javascript применим, когда нужно скрыть от поисковика ссылку полностью. У нас на странице не остается вообще тега «a href» — просто остается «span» и какой-то «id», и внутрь него подгружается ссылка.

— Есть информация, что когда мы вставляем в ссылку rel=»nofollow», для Гугла вес отнимается, но не передается — вы замеряли это?

Нет, это технически не представляется возможным замерить с хорошей достоверностью по косвенным факторам, а прямо нам не дадут посмотреть, какой вес у страницы. PageRank — это такой эфемерный показатель, он является логарифмическим и обновляется очень редко…

— С Яндексом аналогичная ситуация?

Мы не задаемся этим вопросом, потому что у нас нет надобности вообще использовать ссылки с nofollow — мы знаем, как закрыть только от Яндекса, или от Гугла и от Яндекса, больше нам не нужно.

— Какая тогда была цель закрытия ссылки через аякс?

Дело в том, что даже если на ссылке стоит nofollow, поисковой робот все равно по ней переходит. А нам нужно, чтобы не переходил вообще…

Дмитрий Разахацкий

Этот сайт посвящен интернет-маркетингу во всех его проявлениях. Автор сайта более 15 лет занимается различными проектами в интернете начиная от небольших блогов, заканчивая сложными веб-сервисами и крупными международными интернет-магазинами. Подписывайтесь на рассылку, чтобы быть в курсе обновлений!

Вам понравится

комментариев 5

  1. Дмитрий, вы открыли для меня новую ступень в SEO, до селе закрытую от меня, странно, но в РуНете подобных публикации я не встречал, увлекся!

    Выходит, можно взяв партнерский магазин от тех же маек — оптимизировать его так, что он будет индексироваться не хуже оригинала!!!

    Еще зайду, спасибо большое

    • Дмитрий:

      спасибо Алексею Чекушину, который поделился своими наработками:)
      скажу честно, до реализации на практике разработок типа seo-конструктора я лично не дошел, но план был очень похожий — не дали мне его воплотить как раз из-за недопонимания заказчиком… в любом случае, про некоторые задачи из него расскажу еще отдельно.

  2. Очень интересно, спасибо! Было бы хорошо, что бы вы до конца текст опубликовали…

  3. Тигран Гукасян, Wikimart.ru:
    50% затрат на формирование заказа в компании уходит на онлайн-маркетинг, 30% — на customer service, 20% — логистику. Чем менее развита категория, тем выше ее маржинальность. Большой выбор продавцов, есть необходимость повышать затраты на маркетинг, а цены уже низкие.
    На Online Retail Russia 2012

  1. 11.11.2014

    […] в ешопах всегда работает медленно и со скрипом. Успех супер-аналитичного Викимарта и отставание остальных маркетплейсов это только […]

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

2 × 4 =

Нужны советы по продвижению сайта? Подпишись сейчас!