Оптимизация первичная услуги. Установка социальных кнопок. Избавиться от дублей контента, мета-тегов

Давайте представим ситуацию, что вы разработали сайт в Краснодаре , опубликовали его. Дальше вы ждете когда на него ринит целевой трафик, но этого не происходит, потому что не была произведена первичная SEO оптимизация или как еще называют внутренняя оптимизация. Неправильные действия по данному направлению могут привести к тому, что ресурс, может никогда не попасть на страницы поисковика.

Что входит в первичную оптимизацию?

1. Сборка семантического ядра. Семантическое ядро - набор ключевых запросов (низкочастотные, среднечастотные и высокочастотные), по которым и оптимизируется сайт.

Как собрать семантическое ядро? Помогут бесплатные сервисы Яндекс.Вордстат и Серпстат. После того, как семантическое ядро создано мы должны разделить его по категориям, и эти категории разделить по страницам сайта. Для того, чтобы на каждой странице находились ключевые запросы, которые соответствуют названию и теме. При необходимости структура сайта дорабатывается и добавляются новые разделы.

2. Установка счетчиков. Яндекс.Метрика и Google Analytics. Нужно для мониторинга статистики посещений, источников трафика, глубины просмотра, процент отказа.

3. SEO оптимизированный контент. Написание уникальных статей под конкретный ресурс и специфику деятельности. SEO оптимизированными тексты считаются в том случае, когда прописаны теги, тайтлы, дескрипшны и альты у картинок. Наполнение должно быть разнообразным: помимо текста добавляются изображение и видео.

4. Человеко-понятные урлы. Это красивые и дружественные страницы адреса сайт как для пользователя, так и для поисковых роботов. А затем переходим к перелинковки всех страниц, это значит что в тексте одной страницы идет ссылка на другой раздел.

5. Создание файлов роботс.тхт и сайтмап.хмл. Robots говорит роботам какие страницы индексируются, а какие скрыты от этого процесса. Sitemap позволяет быстрее ориентироваться по структуре ресурса.

6. Сниппеты и микроразметка. Сниппет - это блок информации или краткие сведения о конкретной странице, которая видна в поисковой выдачи.

После реализации всех пунктов хорошо бы озадачиться тем, чтобы разместить Политику Конфиденциальности, а также купить установить ССЛ-сертификат. Плюс ко всему зарегистрировать сайт во всех доступных каталогах и выложить информацию на карты.

Для того, чтобы сайт наконец начал индексироваться поисковиками ему нужна первичная SEO оптимизация. Если планируете заниматься внешней оптимизацией, то она невозможна без первичной внутренней оптимизации. Если планируете продвигаться через контекст, то для того, чтобы рекламные кампании были максимально эффективными нужна корректная работа ресурса.

Просмотров: 66

Когда за услугой SEO к нам обращается новый сайт, первым делом делаем аудит и определяем стратегию продвижения. А вот 3 направления в начале работ:

  • Первичная оптимизация

Расскажем о начальных работах, или как мы называем первичная оптимизация сайта, которая состоит из 8 пунктов:

1. Для начала устанавливаем на сайт Яндекс Метрику – специальный счетчик для анализа SEO-продвижения и главных показателей сайта.

Среди таких показателей:

  • органический трафик с детальной разбивкой на поисковые системы

  • данные по конкретным поисковым фразам – визиты, посетители, отказы, глубина просмотра и время нахождения пользователя на сайте

2. Настраиваем Google Analytics – сервис для анализа поведения пользователей на сайте.

Добавляем счетчик и настраиваем цели на сайте. С Google Analytics наблюдаем за действиями посетителей, считаем конверсии, проводим A/B-тестирование, анализируем эффективность рекламных кампаний и прочее.

3. Добавляем сайт в Яндекс. Вебмастер – сервис для оценки индексации сайта и редактирования описания сайта в выдаче Яндекса:

Так сайт быстрее проиндексируется в поисковых системах, а пользователи, заинтересованные в торговом предложении – скорее найдут вас и обратятся ☺

4. Добавляем сайт в Google Search Console – важный инструмент для получения информации о сайте, аналогичный Яндекс. Вебмастеру , но сложнее по структуре.

Зато, если разобраться с сервисом – получишь точный анализ сайта на наличие ошибок и поймешь, что делать для повышения видимости ресурса в поисковой выдаче.

5. Добавляем сайт в Яндекс. Справочник, прописываем контактные данные и прочую информацию об организации:

Теперь – сайт появляется в Яндекс. Картах.

6. Регистрируем сайт в Google My Business:

Теперь информация о сайте присутствует на Google maps

7. Проверяем и оптимизируем скорость загрузки сайта. Подробнее почитайте об этом здесь

Любой интернет-проект нуждается в оптимизации, и некоторые моменты необходимо поправить сразу же, потому что от них зависит 90% успеха. Да, писать тексты небыстро, размещать их долго, на заполнение сайта большого объема потребуется порядком времени. Однако не стоит откладывать работу со страницей до подготовки уникального контента, гораздо важнее как можно раньше выполнить хотя бы минимальные настройки.

Что включает в себя первичная оптимизация сайта

  • Добавление проекта в сервисы для вебмастеров от Яндекса и Google. Выполнение настроек (нужно указать регион, добавить карту сайта, проверить корректность отображения robots, наличие ошибок и прочее). Подключение площадки к счетчикам статистики для получения информации о посетителях.
  • Сбор семантического ядра хотя бы для основных страниц. На основе полученной информации необходимо прописать мета-теги и заголовки. На страницах, для которых не собирались запросы, необходимо задать настройки интуитивно, лишь бы они отражали содержимое. Например, заголовок H1 категории «Для детей» интернет-магазина одежды можно прописать так «Детская одежда».
  • Добавление правил оптимизации в файл robots.txt . Нужно указать поисковые системы (опционально), добавить разделы, которые нужно исключить из индексации, ссылку на карту сайта и главное зеркало.
  • Разработка навигационного меню и структуры сайта. Если есть возможность сократить количество уровней вложенности, следует это сделать. Пользователи и роботы должны без труда переходить по ссылкам.
  • Настройка http-заголовков. Страницы, доступные пользователям, должны быть с кодом ответа 200, неверные ссылки – 404, перемещенные навсегда – 301.

Описанные выше работы необходимо проводить в рамках первичной оптимизации сайта независимо от типа ресурса. Они позволят грамотно всё настроить для дальнейшего продвижения. Также желательно просканировать ресурс на другие ошибки технического плана, избавиться от дублирования как мета-тегов, так и контента, правильно выстроить иерархию заголовков группы . Обнаружить недочеты позволит услуга аудита сайта. Ее можно заказать в сторонней веб-студии или сделать самостоятельно (помогут в этом онлайн-сервисы и специальное ПО, у которого, как правило, есть демоверсия).

Ошибки первичной оптимизации сайта

Начинающие вебмастера часто совершают одну и ту же ошибку: они не работают со всем сайтом целиком, идут постранично. Например, выбрано 10-15 страниц для продвижения, для них собираются запросы, на них правятся мета-теги и заголовки, и для них пишутся оригинальные тексты. Однако для крупных проектов с большим количеством категорий и страниц, независимо от бюджета, такой подход только отодвигает срок получения результатов. Для таких ресурсов в первичную оптимизацию сайта включают также настройку шаблонов Title, Description, H1, текстов с использованием переменных.
Второй ошибкой является игнорирование верстки. Криво сделанный «на коленке» сайт сложнее продвигать, нужно исправлять ошибки, которые могут на нем присутствовать. Чаще всего это:

  • Неверное расположение элементов на странице (например, корзина слева, а не справа, как на большинстве ресурсов);
  • Использование тегов группы , , в шаблонах;
  • Отсутствие важных элементовхлебных крошек», заголовков в принципе и т.д.);
  • Отсутствие нужных стилей (например, в коде проставлены теги списков, а пользователю они не видны);
  • Использование большого количества скриптов;
  • Много мусора в коде;
  • Отсутствие микроразметки.

Иными словами, если брать сайт на первичную оптимизацию, то нужно прорабатывать его вдоль и поперек, работать с ним комплексно, а не отрывочно.

Преимущества первичной оптимизации сайта

Несмотря на то, что работы на сайте проводятся единоразово и дальнейшая динамика по ресурсу не отслеживается, у первичной оптимизации сайта есть свои плюсы. А это:

  • Услуга оплачивается только раз;
  • Можно с минимальным риском «прощупать» веб-студию;
  • Клиент получает и аудит, и исправление багов.

Однако не все недочеты можно устранить в рамках услуги, т.к. часть багов может быть связана с особенностями движка. В некоторых ситуациях для исправления ошибок нужно дорабатывать программный код с привлечением программиста и верстальщика. Предпочтительнее за первичной оптимизацией сайта обращаться в компанию, которая специализируется на работе с CMS, на которой размещен проект.

Первичная оптимизация затрагивает только базовые вещи, нельзя на ней завершать работу с ресурсом. Следует продолжать повышать позиции, собирать запросы, писать тексты, поддерживать группы в соцсетях.

В моей новой статье мне хотелось бы рассказать о таком понятии как первичная оптимизация сайта и собрать для начинающих вебмастеров все первичные средства оптимизации, которые просто необходимо сделать сразу после написания сайта и не только для того, чтобы облегчить работу будущему сео-оптимизатору, но и поднять свой статус как сайтостроителя или вебмастера в лице окружающих. Итак, начнем с самого начала с файла robots.txt.

Создание и наполнение файла инструкции для роботов поисковых систем robots.txt

Файл robots.txt представляет собой некое руководство для прохода вашего сайта поисковыми ботами. В нем мы так же выстраиваем и защиту от ненужных нам ботов, так как они могут существо нагружать наш хостинг, что приведет к отключению услуги. В качестве примера на одном из моих проектов боты ходили с разницей в секунду в количестве порядка 30 штук, что существенно нагружало хостинг (нагрузка выдавалась порядка 60%, при штатной в 10%).

Расшифровка данных файла robots.txt:

  1. User-agent – наименование конкретного бота, к примеру Googlebot или Mail.Ru.Для каждого из видов ботов пишется свой кусок в файле.
  2. Crawl-delay – промежуток времени между обращениями бота к вашему сайту. Нормальным считается промежуток равный 3, но для того, чтобы снять нагрузку на сервер нужно выставить параметр от 5 до 10.
  3. Disallow – запрет на посещение конкретного раздела или страницы. Каждый раздел или страница прописываются отдельно.

Стандартный вид файла robot.txt:

User-agent: *

Crawl-delay: 3
Host: адрес вашего сайта

Данный формат файла робот.тхт подойдет сайтам имеющим трафик менее 100 уникальных посетителей в сутки и количество страниц менее 1000.

Расширенный вид файла robot.txt:

User-agent: *
Disallow: админка или еще какие-либо страницы вашего сайта
Crawl-delay: 3
Host: адрес вашего сайта
Sitemap: ссылка на карту вашего сайта

Все тоже самое, но только добавляются дополнительные блоки для каждого из видов ботов. Я рекомендую сразу же заблокировать следующих ботов (блокировка прописывается вот так Disallow:/):

  • User-agent: sentibot
  • User-agent: MegaIndex.ru/2.0
  • User-agent: MegaIndex.ru
  • User-agent: AdvBot
  • User-agent: XoviBot
  • User-agent: publiclibraryarchive.org
  • User-agent: memoryBot
  • User-agent: SMTBot
  • User-agent: XoviBot
  • User-agent: Abonti
  • User-agent: meanpathbot
  • User-agent: SearchmetricsBot
  • User-agent: panscient.com
  • User-agent: IstellaBot
  • User-agent: EasouSpider
  • User-agent: Aboundexbot
  • User-agent: MixBot
  • User-agent: EasouSpider
  • User-agent: sogou spider
  • User-agent: BUbiNG
  • User-agent: LinkpadBot
  • User-agent: Aboundexbot
  • User-agent: heritrix
  • User-agent: SEOkicks-Robot
  • User-agent: WBSearchBot
  • User-agent: ScreenerBot
  • User-Agent: UnisterBot
  • User-agent: SeznamBot
  • User-agent: SemrushBot
  • User-agent: BPImageWalker/2.0
  • User-agent: lipperhey
  • User-agent: BLEXBot
  • User-agent: wotbox
  • User-agent: SiteExplorer
  • User-agent: turnitinbot
  • User-agent: netEstate NE Crawler
  • User-agent: FeedBooster
  • User-agent: Nutch
  • User-agent: Ezooms
  • User-agent: spbot
  • User-Agent: sistrix
  • User-Agent: ExB Language Crawler
  • User-agent: MJ12bot

Если вы не закроете доступ для выше перечисленных ботов сразу, то будете иметь проблемы в будущем с большой нагрузкой на ваш хостинг или сервер. Боты, которых я заблокировал никак не скажутся на скорости индексации и не повлияют на продвижение сайта, поэтому бояться закрывать свой сайт от них не стоит. Данный, расширенный файл робот.тхт подойдет для сайтов с посещаемостью от 100 человек в сутки и с объемом страниц более 1000 страниц.
Для сайтов, написанных на WordPress можно использовать плагин Multipart robots.txt editor – он имеет достаточно много настроек, с помощью которых можно исключить слишком активных ботов, а так же прописать разделы и страницы, доступ к которых вам нужно запретить.

Создание карты сайта (sitemap.xml)

Для чего нам нужна карта нашего сайта? Ответ очень прост – для того, чтобы роботы поисковых систем не заблудились и могли найти разделы вашего сайта достаточно быстро и сразу определить какие из них чаще обновляются, а кике не очень. С помощью карты сайта можно существенно сократить скорость индексации страниц ресурса, что положительно сыграет на динамике продвижения и увеличении трафика на сайт.

Создать карту сайта можно, как с использованием сторонних сайтов, так и с помощью плагинов. Но помните, что большинство сторонних сайтов бесплатно создают sitemap только на определенный объем страниц (от 100 до 500, больше я не встречал), а так же не всегда понятно, что вам могут положить в код (если вам лень проверять его полностью). Лично я использую на своем сайте (он построен на WP (wordpress)) плагин Yoast SEO , который помимо различных удобств в СЕО части, включает и создание карты сайта.

Установка социальных кнопок

На сегодняшний день очень важная часть оптимизации сайта, так как каждый репост записи дает вам 1 халявную, да еще и вечную ссылку с жирнейших ресурсов (vk.com, одноклассники, google+ и пр.). Плюс ко всему любой репост, если его сделал человек, имеющий хотя бы 100 человек в друзьях или подписчиках, может привести вам от 1 до 10 новых посетителей, а те в свою очередь могут сделать другие репосты и привести еще.
Лично я использовал и использую по сегодняшний день 3 варианта установки социальных кнопок на свои сайты и сайты своих клиентов:

Самый простой и действенный способ настройки качественной перелинковки включает в себя 2 варианта установки ссылок:

  1. При написании страниц, направленных на поднятие главных посадочных страниц необходимо установить с них от 1 до 10 ссылок, в зависимости от объема текста и количества нужных нам тематических ключевых слов. Данным подходом мы будем передавать вес второстепенной страницы на основную, которую мы будем усиленно продвигать, что, несомненно, сыграет свою роль в росте позиций.
  2. Установка блоков: похожее, новое, популярное на страницах вашего сайта:
  • Блок «похожее» можно подключить в настройках сайта при включенном плагине Jetpack от WordPress.com: панель администратора – настройки – чтение – выбрать «Показывать заголовок «Похожее», чтобы визуально отделить похожее содержимое от записей». В каждой из ваших записей (не страниц) в самом низу текста появится блок «похожее» (аналдогичный блок вы увидите и внизу этой статьи).
  • Блок «новое» можно подключить в настройках вашего сайта: панель администратора – внешний вид – виджеты – выбираем область виджета, куда хотим разметить блок (в моем случае это правый сайдбар) – выбираем виджет «Свежие записи». Никаких дополнительных плагинов для установки этого блока устанавливать не нужно.
  • Блок «популярное» можно подключить в настройках вашего сайта: панель администратора – внешний вид – виджеты – выбираем область виджета, куда хотим разметить блок (в моем случае это правый сайдбар) – выбираем виджет «Popular Posts» или «популярные записи» (в моем случае я установил плагин WordPress Popular Posts ). Пример размещения данного блока вы можете видеть на моем сайте.

Классические ссылки и установка блоков помогут вам не только качественно настроить перелинковку страниц, но и обеспечат удобное использование вашего сайта его посетителями, что отразится на поведенческих факторах. А как мы знаем они играют далеко не последнюю роль в определении качества вашего сайта.

Правильно прописываем метатеги

Итак, мы подошли к еще одному интересному моменту поисковой оптимизации сайта – это метатеги. Их мы разделим на 3 части и о каждой я кратко расскажу:

  1. Title или название страницы, ее видит только поисковый робот и поэтому постарайтесь без воды максимально четко назвать вашу страницу. Иногда (почти всегда) название страницы полностью совпадает с ее заголовком и поэтому помните, что как название так и заголовок должны полностью отражать содержание дальнейшего текста в противном случае страница никогда не выйдет в топ. В заголовке в обязательном порядке должно присутствовать фокусное ключевое слово, можно в другом падеже.
  2. Description или описание страницы, его, как и название страницы, так же видит только робот поисковой системы, но из него так же формируется сниппет (небольшой кусок текста сформированной поисковой системой автоматически под заголовком вашего сайта и ссылкой на его страницу, выданной в при введении поискового запроса). Описание не должно быть большим и так же не должно быть маленьким – это всего 1-2 предложения не более 150 знаков описывающее суть текста. В описании в обязательном порядке должно присутствовать фокусное ключевое слово, можно в другом падеже.
  3. Keywords или ключевые слова – и этот параметр будет доступен только роботам поисковых систем. Минимум, что должно быть прописано, это хотя бы одно фокусное ключевое слово или фокусное слово и производные от него. Например: оптимизация сайта, сео оптимизация сайта, оптимизировать сайт, оптимизация сайта для продвижения. Плотность ключевых слов по отношению к тексту не должна быть более 1 к 300 (1 ключевое слово на 300 знаков текста). Если плотность будет выше, то можете получите фильтр за спам ключами. Если плотность будет ниже, то у вас просто будет меньше ключевых слов на конкретной странице. В данном поле не обязательно прописывать все имеющиеся в тексте ключи, можно указать только фокусное.

Немного подведу итог правильности написания метатегов:

  1. Фокусное ключевое слово (или фраза) должно быть одно, например «продвижение сайтов».
  2. Фокусное ключевое слово должно присутствовать в названии, описании, ключевых словах, хотя бы в одном заголовке странице и встречаться 1 раз в тексте. Можно использовать разные словоформы (употреблять в различных падежах).
  3. Дополнительные ключевые слова подбираться по принципу фокусное слово (или фраза) плюс еще одно слово, например продвижение сайтов в яндексе.
  4. На 300 знаков текста должно быть не более 1 ключевого слова или фразы.

В качестве совета рекомендую тем, кто использует Google Chrome установить плагин на браузер под названием RDS bar. С его помощью вы сможете просматривать не только метатеги сайтов конкурентов, но и проанализировать их качество.

Настройка RSS ленты

Если сайт написан на WordPress, то практически во всех темах, используемых для создания сайта, уже есть встроенная РСС-лента, найти ее можно так: ваш сайт/rss.xml, ваш сайт/feed.xml или как в моем случае ваш сайт/feed/ . Зачем нужна RSS-лента? Все очень просто. Существуют ресурсы, которые так или иначе будут парсить (забирать ее к себе на сайт) вашу ленту записей и для упрощения такого мероприятия прекрасно подойдет наша РСС-лента. Это нужно нам для того, чтобы совершенно бесплатно получать ссылки на наш сайт, при этом данного рода ссылки считаются естественными, что положительно скажется на продвижении интернет сайта и поможет хоть немного, но поднять его позиции.
Помимо положительных моментов в RSS-ленте, есть и отрицательные:

  1. Невозможно изначально отследить качество сайтов, размещающих ваши статьи у себя. Это могут быть как плохие, так и хорошие ресурсы, но в любом случае общий итог будет положительным, особенно если удастся транслировать свои записи в крупных ПС или на крупных порталах.
  2. Невозможно самостоятельно отсеивать не желательные для вас сайты. Единственное, что можно сделать в таком случае – это самостоятельно прогнать свой сайт через качественный агрегаторы, потому как они это вряд ли сделают за вас (описывать их в данной статье не буду, да и не зачем, так как они постоянно меняются, кто попадает под АГС, а кто-то нет).
  3. О том, что с вашего сайта кто-то парсит статьи вы узнаете только в момент обновления (апдейта) текстовой базы поисковой системы.
  4. Удаление ваших текстов с чужих сайтов – это самое проблематичное и трудоемкое занятие, так как вам нужно будет выйти на вебмастера того сайта и уже просить его удалить ваш текст.

Может показаться, что RSS-лента подойдет больше для продвижения сайтов блогов или новостных порталов, но это не так. На сегодняшний день большую роль играет контент и большинство сайтов продающих товары или услуги или еще что-либо не относящиеся к информационной тематике создают разделы, которые наполняются различными тематическими текстами. А чем больше будет естественных ссылок на эти разделы, тем больше пользы они принесут основным продвигаемым страницам, отдавая им свой честно заработанный вес.

Настройка трансляции записей и страниц сайта в социальных сетях

Трансляция записей вашего сайта – это один из способов не только ускорить индексацию и продвижение, но и получить массу бесплатных ссылок с одних из самых трастовых сайтов не только Рунета, но и мира. Рассмотрим варианты настройки таких трансляций:

  1. Самый трудоемкий способ – набивать анонсы статей в каждом из аккаунтов социальной сети вручную. Не самый лучший вариант провести свое время с пользой, поэтому заострять внимание на нем я не буду.
  2. Самый простой способ – настройка RSS-ленты через сайт rsstranslator.net (есть платная регистрация и бесплатная) с выводом трансляции в социальную сеть, а конкретно сразу в нужную вам группу. Способ очень прост и не требует настройки API для каждой из социальной сети. Регистрируетесь, вносите свои РСС-ленты в свой каталог, далее настраиваете с них трансляцию на вашу группу в соцсети (группу, аккаунт) и получаете ежедневное наполнение вашей группы в контакте. Для того, что бы аккаунт на РССтрансляторе не заблокировали нужно 1 раз в 6 месяцев заходить в свой личный кабинет на сайте, о чем система сама напоминает (очень удобно). Этот способ хорош еще и тем, что у вас не будет стоять плагина на сайте, который грузил бы ваш хостинг или сервер.
  3. Средний по сложности – установка специализированных плагинов на ваш сайт с тонкой настройкой API поисковых система для трансляции статей. Скажу честно, что лично я использую второй способ и не имею никаких проблем, поэтому описывать тонкости настроек приложений в данной статье описывать я не буду, но постараюсь уделить время написанию о, них в другой статье посвященной продвижению сайта через социальные сети.

Итак, в качестве примера настройки трансляции записей приведу свой сайт. Как вы видите в шапке у меня есть всего 2 иконки социальных сетей: vk.com и twitter. Вы спросите, а почему так мало? Лично мне этого хватает.
В РССтрансляторе я настроил 1 канал RSS-ленты со своего сайта (он же общий канал всех рубрик), далее я направил трансляцию с него в свою группу в контакте, а уже из группы в контакте настроил трансляцию в твиттер. Настройка из вконтакте в твиттер делается практически в 1 нажатие и не вызвало лично у меня никаких вопросов.
В итоге я получил ежесуточное автоматическое наполнение группы в контакте и аккаунта в твиттере, что положительно сказывается на продвижении позиций моего сайта с самого начала его написания. Дополнительно скорость индексации моих страниц снизилась со стандартных 4-5 недель в Яндексе до 1-2 недель, по Google страницы попадают в индекс уже в течение 1 суток.
Для начала работы по продвижению сайта, на мой взгляд, приведенной информации будет вполне достаточно, а об остальном вы сможете прочитать на страницах моего блога.

09.10.2017 Время прочтения: 16 минут

Интернет-маркетинг – это огромная доля всего маркетинга; а продвижение сайта в поисковиках – огромная доля интернет-маркетинга.

Прямо сейчас зайдите на своем веб-сайте в файл robots.txt (https://www.ваш-сайт.ru/robots.txt) и проверьте, не закрыт ли он от ПС. Если увидите строку
User-Agent: *
Disallow: /
значит, ваш сайт не видит ни один поисковик, и нужно срочно заняться внутренней seo-оптимизацией!

Ещё один файл-помощник для общения с роботами ПС – sitemap.xml. Он важен в первую очередь для сайтов с большим количеством страниц. Потому что, роботы ПС обходят сайт последовательно: зашел на страницу X, нашел на ней сслыку на страницу Y, перешел на Y, нашел ссылку на Z и т.д. При этом есть ограничение по количеству страниц, которое поисковик обходит на одном сайте за сутки (краулинговый бюджет). Поэтому, если на сайте хотя бы 100 страниц, разбитых на несколько категорий, лучше дать поисковику маршрут, по которому стоит обходить сайт. Этот маршрут задается в карте сайта sitemap.xml. Когда карта сайта есть – процесс добавления страниц в индекс проходит быстрее (и их обновление при переобходе тоже проходит быстрее).

В карту сайта добавьте полный список страниц ресурса и так же, как и robots.txt, загрузите в корневую папку, чтобы адрес был таким: https://www.ваш-сайт.ru/sitemap.xml .

Настроить 404

Фото с сайта geocities.jp

Когда пользователь вводит в адресную строку браузера URL (например, ), браузер обращается к серверу, хранящему эту страницу, и в ответ получает некий код состояния. Два самых частых кода состояния – это 200 OK и 404 Not Found: первый означает, что страница с запрошенным адресом действительно существует (и загружает эту страницу); второй – что страницы с запрошенным адресом не существует.

Если в адресную строку ввели адрес, страницы по которому не существуют (например, https://сайт/blok/), сервер должен ответить браузеру 404 Not Found, и в окне браузера должна появиться «заглушка», информирующая пользователя, что ему нужно уточнить адрес.

Вот что происходит, когда на сайте не реализована функция грамотного ответа для несуществующих страниц:

  1. При переходе на несуществующую страницу пользователь попадает в тупик и покидает сайт;
  2. При переходе на несуществующую страницу поисковый робот думает, что она существует (ведь 200OK), и добавляет ее в индекс как дубль.

Поисковики ненавидят дубли (об этом читайте ниже, пункт «Избавиться от дублей контента, мета-тегов»). Поэтому обязательно настройте 404 для пустых страниц!

По умолчанию, популярные CMS уже оснащены функцией грамотного ответа для несуществующих страниц, но это не точно. Так что, лучше проверьте: введите в адресную строку неправильный адрес, проверьте, появляется ли «Страница 404», и проверьте код ответа (например, здесь: www.redirect-checker.org). Если что-то не так – срочно исправляйте.

Настроить 301 и 302 редиректы

Большая боль поисковых роботов – это редиректы (переадресации) в структуре сайта. В структуре – значит в тексте/меню/адресах картинок и проч., то есть, где-то в таком месте, на которое робот наткнется при обходе страниц. Каждый раз, встречая переадресацию в структуре, робот как бы спотыкается (сначала для него подгружается один URL, потом вдруг его перекидывает на второй), и вам засчитывается как бы негативный балл. Далее разберемся, где нужно и как правильно использовать редиректы, чтобы не огорчать поисковых роботов.

Избегайте слишком длинных адресов и большого уровня вложенности, структура должна быть четкой и ясно выраженной, а приоритетные страницы должны находиться не более, чем в 3-х кликах от главной. В противном случае поисковые роботы будут обходить большую часть страниц стороной, что грозит слабым индексированием сайта и потерей трафика.

Если при оптимизации внутренних страниц пришлось заменить адрес (был непонятный site.ru/1/n1234, решили заменить на понятный site.ru/catalog/nazvanie-tovara-artikul-1234), то используйте 301-ый редирект. Тогда у страниц с редиректом, которые уже присутствуют в поисковой выдаче, поисковик проиндексирует новую страницу и заменит в выдаче адрес на новый.

Если адрес страницы меняется на время (например, на сайте ведутся технические работы, и все адреса должны направлять на страницу с заглушкой), то используйте 302-ой редирект. В этом случае поисковик не будет менять адрес страницы в поисковой выдаче на новый, и не будет индексировать новую страницу.

Ситуации, когда необходимо настроить 301-ый редирект:

  • Смена домена;
  • Переезд на другую CMS без сохранения старых адресов;
  • Переезд на защищенный протокол HTTPS;
  • Изменение URL по техническим причинам (например, перенесли все товары из категории /category-1/ в/category-2/);
  • Приведение URL в формат ЧПУ («человекопонятный URL»);

Ситуации, когда необходимо настроить 302-ый редирект:

Важный нюанс: при настройке редиректов проследите, чтобы не возникало целой цепочки редиректов. Это ситуация, когда с исходного URL происходит редирект на URL№2, затем на URL№3 и так может быть до бесконечности. Чтобы проверить, настроен ли со страницы редирект (и какой), и нет ли цепочки редиректов, воспользуйтесь уже упомянутым сервисом www.redirect-checker.org .

Избавиться от дублей контента, мета-тегов

Фото с сайта theinfosphere.org

Дубли – это плохо. Если у страницы на сайте есть дубль – из индекса (а уж тем более, из ТОПа) могут вылететь обе: и дубль, и оригинал. Если мета-теги на разных страницах совпадают, шансы выйти в ТОП снова стремятся к нулю. Поэтому дубли нужно отлавливать и беспощадно уничтожать.

Вот самые частые причины возникновения дублей контента:

Как противостоять «атаке клонов»:

  1. Грамотно настроить «главное зеркало» сайта.
  2. Удалить все лишние технические адреса страниц, возникшие случайно в ходе создания сайта.
  3. Избегать параметрических УРЛов, если уже настроены ЧПУ.
  4. При использовании UTM-меток указывать поисковикам каноничный адрес страницы.

Удалить лишние технические адреса страниц уже сложнее, т.к. сначала их нужно обнаружить. С проверкой внутренней оптимизации сайта на предмет дублей здорово справляется специализированный софт, например, Screaming Frog SEO Spider или его бесплатный аналог Xenu . С помощью софта находим все «левые» адреса и оставляем только один каноничный.

Если у вас на сайте используются параметрические УРЛы, постарайтесь заменить их на ЧПУ (которые лучше индексируются). Если это невозможно (например, так уж реализован фильтр в каталоге товаров), то компромиссное решение – сделать копии страниц, но в формате ЧПУ. Например, https://www.site.ru/catalog/audio_and_digits/tv/AKAI/ - страница индексируется; а https://www.site.ru/catalog/audio_and_digits/tv/AKAI/?available=1&status=55395790&p=... уже нет, и у поисковика не будет подозрения на дубли контента. Вторая страница не индексируется благодаря директиве Disallow: */?available в robots.txt.

Похожая ситуация с UTM-метками. Стандартные UTM-метки, используемые, например, в Яндекс.Директе, сам Яндекс уже и так распознает, и не пытается добавить в индекс; но адреса с UTM-метками, используемыми для других целей, могут быть ошибочно восприняты поисковиком как самостоятельные страницы. Решается проблема тоже директивой Disallow в robots.txt.

Кроме дублей контента частая проблема работ по внутренней оптимизации сайта – дубли мета-тегов. Они появляются при автоматическом заполнении мета-тегов, например, в каталогах товаров интернет-магазина. Отлавливать дубли мета-тегов следует так же, как и дубли контента: через специализированный софт. А когда отловили – остается их только уникализировать. Если дублей много, то работа это непростая, т.к. вручную теги на 1000+ страниц даже при большом желании обновлять слишком долго и дорого; так что, в таких случаях используется заполнение по маске. Например, если у вас магазин телевизоров, и 50 телевизоров Samsung называются одинаково в карточках товаров «Телевизор Samsung» (на 50 разных страницах совпадают title и h1), то надо их переназвать, включив в заголовок различающиеся параметры: тип телевизора, диагональ, цвет, даже артикул.

Seo’оптимизировать изображения

Если дубли, пустая sitemap.xml, неработающая 404 ошибка – это прямо «криминал» в глазах поисковиков; то неоптимизированные изображения – вроде административного правонарушения. Все же, практика показывает, что оптимизация картинок дает общий «плюс к карме», и позиции растут быстрее; и, конечно же, если картинки оптимизированы – с ними можно влезть в Яндекс и Google поиск по картинкам, что в определенных тематиках приносит дополнительный трафик.

5 советов по оптимизации изображений:

  1. Старайтесь публиковать уникальное изображение;
  2. Используйте сервисы сжатия для сокращения веса картинки в килобайтах (чем меньше вес, тем быстрее загрузится картинка);
  3. Обязательно заполняйте атрибуты alt и title, включайте в них слова и фразы, релевантные изображенному;
  4. Называйте файлы картинок в ЧПУ виде (по аналогии с УРЛами - лучше всего транслитом);
  5. Используйте разметку schema.org для картинок, которая поддерживается и Яндексом, и Google.

Наполнить сайт ключевыми словами

После того, как технически сайт готов, пора приступить к насыщению его семантикой, то есть релевантными словами/фразами, по которым вы будете его продвигать.

Чек-лист по семантике:

  • Емкое и релевантное семантическое ядро;
  • Уникальный, интересный, разноплановый контент;
  • Правильно заполненные seo-теги;
  • Грамотная перелинковка.

Найти ключевые слова (семантику)

Семантическое ядро сайта (согласно Википедии) – это упорядоченный набор слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товары или услуги, предлагаемые сайтом. Если упростить, то это набор тех фраз/слов, по которым вы хотите, чтобы ваш сайт находили пользователи поисковых систем.

Данный метод внутренней оптимизации укладывается в четыре этапа:

  1. Сбор ключевых слов вручную с помощью специальных сервисов: Яндекс.Вордстат (Подбор слов) и Google Adwords .
  2. Дополнение семантики ключевыми словами конкурентов (хорошо подойдет сервис SEMrush) и словами из готовых баз (например, База Пастухова).
  3. Удаление нецелевых и малоэффективных слов из образовавшегося списка.
  4. Кластеризация запросов. Продвигать на одной странице следует ту группу запросов, которая нацелена на решение конкретной проблемы пользователя. В результате кластеризации получается карта распределения запросов по сайту.

Создать контент согласно семантике

Фото с сайта kino.ru

Когда готова карта запросов, пора составить техническое задание для копирайтера.

В ТЗ копирайтеру нужно указать:

  • Запрос, который должен войти в заголовок h1;
  • Количество вхождений в текст каждого из запросов, предусмотренных для страницы (вычисляется исходя из логики, здравого смысла и анализа текстов сайтов-конкурентов);
  • Объем знаков текста без пробелов (как правило, объем должен быть больше 1000 знаков для хорошей индексации, исключение составляют страницы карточек товаров; объем текста определяется также исходя из здравого смысла и анализа конкурентов);
  • Источники информации для написания интересного контента.
  • Текст должен быть интересным, полно и ясно отвечающим на вопрос пользователя;
  • Текст должен быть уникальными (уникальность проверяется специальными сервисами);
  • У текста должна быть низкая тошнота (тоже проверяется через сервисы);
  • Если текст длиннее 1000 знаков, его следует разбавлять иллюстрациями и другим мультимедийным контентом;
  • В тексте нужно использовать разметку: деление на параграфы, выделение заголовками, подзаголовками, маркированными и нумерованными списками.

Правильно заполнить seo-теги (title, h1-h6, description, keywords, strong)

Следующий важный для внутренних факторов оптимизации шаг, когда уже выбрана семантика и написаны тексты, – публикация текстов вместе с seo-тегами (часто их называют «мета-теги »). Порой грамотно заполненные seo-теги влияют на скорость поднятия в ТОП-10 страницы сильнее, чем оптимизированные тексты.

Seo-теги – это title, “description”, “keywords”, h1-h3 заголовки. Пользователь видит title, h1-h3, а description, keywords фактически видны только поисковым роботам. Задача при заполнении seo-тегов: вписать в них ключевые слова в максимально точном вхождении, соблюдая все требования ПС, при этом сохранив адекватным вид seo-тегов, видимых пользователю. Все seo-теги должны уникальными и не пустыми.

Базовые требования к seo-тегам:

Ручное заполнение данных мета-тегов для больших интернет-магазинов довольно затруднительно из-за множества страниц. Для этого процесс автоматизируют при помощи шаблонных масок. При помощи них, например, можно массово озаглавить тысячи страниц с товарами сайта и все его разделы.

Настроить перелинковку

Перелинковка (от слова “link” – «ссылка») означает установку обратной связи между страницами сайта: с главной страницы сайта в меню есть ссылка на страницу контактной информации – значит, имеет место быть внутренняя перелинковка между главной страницей и страницей контактной информации. Чем больше ссылок внутри сайта будет вести на одну страницу, тем больший вес получит она в глазах поисковых систем.

6 советов по организации внутренней перелинковки:

  1. Делайте анкоры уникальными и разнообразными.
  2. Используйте ключевые слова в анкорах.
  3. Ставьте не более одной ссылки на 1 000 знаков контента.
  4. Выделяйте цветом гиперссылки (классика: ссылки синего цвета, а текст черного).
  5. При внутренней оптимизации интернет-магазинов и больших порталов делайте массовую перелинковку похожих статьей/товаров и проч.
  6. Избегайте использования циклических ссылок – это ситуация, когда страница ссылается сама на себя.

Сделать сайт удобным

Вы расположили поисковиков к своему сайту, вышли по нужным запросам в ТОП – теперь нужно удовлетворить посетителя, дать ему кроме релевантного ответа на его запрос ещё и возможность комфортно использовать сайт.

Чек-лист по юзабилити:

Повысить юзабилити

Юзабилити сайта (от англ. “usability” – «удобство использования») – это уровень удобства использования интернет-сайта, которое позволяет пользователю легко и быстро найти нужную информацию.

Базовые факторы юзабилити сайта:

  • Контент. Контент всегда превыше всего, когда речь заходит о качестве сайта. Тексты должны быть интересными и полезными; графика в тему и приятной; дизайн современным и привлекательным.
  • Высокая скорость загрузки страниц сайта. Чтобы узнать, что именно нужно сделать, чтобы ее увеличить, воспользуйтесь официальным инструментом от Google – PageSpeed Insights .
  • Адаптивность сайта под все возможные устройства, с которых сайт могут посещать пользователи – ПК, ноутбуки, планшеты, смартфоны. Мобилопригодность проверяйте также через официальный инструмент от Google – Mobile-friendly Test .

В юзабилити, конечно же, укладывается и вообще все, что может способствовать удобству восприятия информации: удобные формы обратной связи, формы заказа; качественный дизайн; удобство навигации, etc. Поэтому делайте сайты для людей.

Усилить коммерческие факторы

Фото с сайта imprenditoreglobale.com

«Коммерческие факторы» в контексте SEO – это все элементы сайта, которые указывают поисковым системам, что: а) сайт что-то продает; б) на сайте вся информация, важная потребителю для покупки, представлена полно, точно и в удобной для восприятия форме.

Список коммерческих факторов:

  1. Несколько способов связи: телефон, e-mail, skype и т.д.;
  2. Несколько телефонов и наличие номера 8-800;
  3. Контакты отдельных сотрудников + их фото;
  4. Схема проезда и прохода в офис;
  5. Схема на Яндекс.Картах/Google Maps;
  6. Живые аккаунты в соцсетях, наполняемые контентом;
Похожие публикации