СЕО оптимизация сайта самостоятельно: 9 шагов

Дата публикации: 07.01.2017

seo-optimizaciya-sajtaОрганический поисковый трафик имеет жизненно важное значение для любого коммерческого сайта.

Почти половина онлайн-клиентов начинают процесс покупки с поисковой системы, а треть e-commerce трафика приходит из результатов поиска. Даже если у вас магазин кирпича или минометов 🙂

Все это указывает на один факт: если вы хотите зарабатывать деньги на своeм сайте, вам нужен органический трафик.

И как же его получить?

SEO вам в помощь.

SEO, как правило, рассматривается как область интересов маркетологов и копирайтеров. Тем не менее, веб-разработчики также играют в этом большую роль.

Если SEO оптимизация сайта была произведена поверхностно или не проводилась вообще, поисковые системы будут с трудом находить и индексировать страницы либо не делать этого вообще.

К примеру, одно неверное действие с файлом robots.txt может обеспечить блокирование отображения сайта в поисковых результатах.

Именно поэтому в данной статье собрано 9 наиболее значимых моментов, которые оформлены в виде пошаговой инструкции по SEO оптимизации сайта.

Они помогут вам, как разработчикам, создавать сайты таким образом, чтобы они имели высокие позиции в поисковой выдаче.

Сканирование и индексация

Поскольку цель оптимизации сайта под SEO заключается в отражение сайта в поисковой выдаче для вашей целевой аудитории, то одним из наиболее важных моментов при создании ресурса является обеспечение его сканирования и индексации поисковыми роботами.seo-optimizaciya-sajtov-dlya-poiskovyh-sistem

Самым простым способом обеспечения индексации является подача заявки на сканирование сайта непосредственно в Google, Yandex, Bing и другие поисковые системы.

  • Для добавления ресурса в Google воспользуйтесь Google Search Console — https://www.google.com/webmasters/tools/submit-url.
    Для этого вам придeтся создать Google-аккаунт, который помимо возможности добавления заявок на обход роботом сайтов даст вам ещe массу возможностей, среди которых регистрация в сервисах Adsense, Adwords, YouTube и других.
  • Для добавления заявки на индексацию ресурса роботами Yandex вам также придeтся создать Яндекс-аккаунт, т.к. Яшина аддурилка (жаргонное название инструмента добавления заявки на индексации роботом) доступна только в кабинете вебмастера.
    После регистрации аккаунта вы сможете получить доступ к инструменту здесь — https://webmaster.yandex.ua/addurl.xml.
  • Единственное исключение в плане свободного добавления сайта и отдельных его страниц для индексирования представляет Bing, который не требует от веб-мастеров наличие аккаунта Microsoft (да, это их поисковая система 🙂 ), хотя и напоминает о его создании время от времени.
    Аддурилка Bing расположена по данному адресу — http://www.bing.com/toolbox/submit-site-url

XML карта сайта

Согласно тематической литературе, XML карты сайтов представляют из себя список всех URL, который хранится в виде текстового файла в корневом каталоге ресурса.

На самом деле, их возможности этим не ограничиваются.

Да, они содержат все URL на вашем сайте (или по крайней мере те, которые бы вам хотелось увидеть в поисковой выдаче), но в них также располагается дополнительная информация о каждой странице.

Таким образом, карта сайта принимает участие во внутренней SEO оптимизации сайта.

Поисковые системы используют информацию в sitemaps для обхода сайтов, чтобы не тратить свой бюджет, выделенный на сканирование, на неважный или неизменный контент.

Оформленная по всем правилам карта сайта будет выглядеть следующим образом:


<?xml version="1.0" encoding="UTF-8"?>

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" xmlns:xhtml="http://www.w3.org/1999/html">

<url>

<loc>https://www.example.com/</loc>

<lastmod>2016-8-01</lastmod>

<changefreq>monthly</changefreq>

<priority>0.9</priority>

<xhtml:link rel="alternate" hreflang="fr" href="https://www.example.com/fr/"/>

</url>

Что же всe это значит?

Вот краткая расшифровка написанного выше:

http://cccp-blog.com/wp-includes/images/banners/templatemonster/banner_content.jpg

  • <urlset> — этот тег является обязательным и сообщает роботам, что карта сайта является начальной и конечной.
  • <url> — обозначает начало и конец каждого URL в файле sitemap.xml.
  • <loc> — данный тэг определяет URL страницы. В то время как остальная часть атрибутов, находящихся в <url> теге, являются не обязательными, про <loc> такого сказать нельзя.
  • <lastmod> — дата, в формате YYYY-MM-DD, последнего обновления ​​или изменения страницы.
  • <changefreq> — тэг указывает на то, как часто вы обновляете страницу.
    Это поможет поисковым системам принять решение о еe сканировании.
    Поисковые роботы должны быть уверены, что они индексируют свежий контент.
    Можно было бы попытаться схитрить, чтобы увеличить частоту сканирования, но лучше этого не делать.
    Если поисковые системы видят, что <changefreq> не соответствует фактической частоте изменений, они будут просто игнорировать этот параметр.
  • <priority> — устанавливает приоритет страницы по отношению к остальной части сайта.
    Допустимые значения находятся в диапазоне от 0,0 до 1,0 (от наименее до наиболее важных).
    Используйте этот тег, чтобы помочь поисковым системам сканировать ваш сайт более разумно.
    Обратите внимание, что это только сообщает роботам, насколько важны ваши страницы по сравнению с другими страницами.
    Но это никак не повлияет на приоритет ваших страниц по сравнению с другими сайтами.
  • <xhtml:link> — этот тег указывает на альтернативные версии страницы. В данном примере он указывает на французскую версию https://www.example.com.

Sitemaps не являются сигналом к ранжированию, но, тем не менее, их создание является неотъемлемой частью SEO оптимизации сайта для поисковых систем, т.к. они помогают роботам найти все страницы вашего ресурса и их контент.

Если вы не хотите составлять sitemap вашего сайта вручную, существует много инструментов, которые  помогут вам автоматизировать этот процесс. Если вы хотите знать как они работают и в чём заключается процесс работы с ними, то следующее видео для вас:

После того, как у вас будет XML Sitemap, ее необходимо будет проверить с помощью Google Search Console, инструментов Bing и кабинета вебмастера Yandex для последующей отправки на индексацию.

Но перед этим не забудьте убедиться, что вы исправили все ошибки, чтобы не создавать препятствия для индексации вашего сайта в дальнейшем.

Robots.txt

Как и карта сайта, файлы robots.txt представляют собой простые текстовые файлы, которые хранятся в корневом каталоге сайта. Их предназначением заключается в помощи поисковым роботам в сканировании сайта.

Данный файл содержит строки кода, указывающие, к каким файлам, типам файлов или каталогам будут иметь доступ агенты поисковых систем.

Код разбивается на блоки, каждый из которых содержит директивы для одного агента.

Обычно, код robots.txt выглядит следующим образом:


User-agent: *

Disallow:

&lt;br data-mce-bogus="1"&gt;

User-agent: googlebot

Disallow: *.ppt$

Звездочка (*) используется в качестве универсального символа, обозначающего любое количество любых символов. В строке агента поисковой системы, универсальный символ означает всех ботов.

В строке Disallow она подразумевает URL до указанной точки. В примере выше, наш robots.txt запрещает Googlebot сканирование страниц, которые заканчиваются расширением файла PowerPoint (ppt) — символ $ обозначает конец URL.

Вы можете запрещать ботам сканировать весь сайт с помощью косой черты в строке Disallow:


User-agent: *

Disallow: /

В то время, как вы создаeте, производите редизайн или перенастройку сайта, лучше закрывать сайт от индексации роботами всех поисковых систем

Тем не менее, вы должны быть уверены, что у вас будет возможность восстановить доступ, как только вы закончите, иначе ваш блестящий новый сайт не будет индексироваться и его никто не увидит.

С помощью Google Search Console вы сможете проверить свой файл robots.txt на синтаксические ошибки или другие проблемы.

Более подробно о robots.txt вы можете узнать из этого видео:

Мета-тег Robots

Одна из проблем, связанных с файлом robots.txt, заключается в том, что наличие этого файла не остановит роботов поисковых систем от следования по внешним ссылкам на ваш сайт.

Следовательно, закрытие страниц с помощью robots.txt, не гарантирует, что ваш сайт не будет проиндексирован.

Для решения этой проблемы необходимо добавить дополнительный уровень защиты для отдельных страниц с помощью мета-тега robots:

http://cccp-blog.com/wp-includes/images/banners/partner_web_studio/banner_728x90.gif


<meta name="robots" content="noindex">

Оптимизация URL

URL-адреса имеют влияние как на навигацию пользователей по сайту, так и на  SEO оптимизацию страниц сайта.

И люди, и роботы ожидают, что URL страницы будет содержать хотя бы общее описание того, что она из себя представляет, и где эта страница находится в иерархии сайта.

Оптимизируйте ваши URL-адреса с помощью целевых ключевых слов, а также каталог данной страницы и вложенные подкаталоги.

Взгляните на эти два URL-адреса:

  • https://www.example.com/clothing/mens/shirts/fancy-white-dress-shirt
  • https://www.example.com/product/cid=12345&pid=67890

Поисковые системы, сканирующие страницу, будут видеть этот URL-адрес и смогут сказать, что эта страница не только о модных белых рубашках, но она также связана с мужской одеждой.

Второй URL не скажет вам ничего о том, что вы найдете на этой странице, за исключением, возможно, того, что этот товар является продукцией example.com.

Как вы думаете, какой из этих адресов будет более релевантным поисковому запросу «модные белые мужские рубашки»?

При создании URL-адресов, следуйте этим рекомендациям:

  • Сжатый
    Ваши URL-адреса должны быть описательными, содержать ключевые слова и быть краткими. В целом, они не должны составлять более 100 символов.
  • Чистый
    По возможности следует избегать использования параметров URL, таких как идентификаторы сеансов и сортировки/фильтрации. Они снижают удобство и повышают риск дублирования контента.
  • Дефисы
    При использовании нескольких слов в вашем URL, их следует разделять с помощью дефиса, а не подчеркивания. Поисковые системы используют дефис в качестве разделителя слов, но не признают нижнего подчеркивания.
    Следовательно, url_keyword для них означает то же, что и urlkeyword. Поскольку люди используют пробелы в поисковых запросах, дефисы в ваших URL придадут им релевантности.

Канонические URL-адреса

Оптимизация URL – это не только использование ключевых слов, но и предотвращение дублирования.

Благодаря параметрам URL и сбору контента из разных источников достаточно легко добиться случайного дублирования материала.

Это плохо не только с точки зрения тавтологии. Фильтры Google Panda и Яндекс АГС заблокируют весь сайт.

Если вы страдаете от дублирования контента благодаря вашему движку сайта, то данную проблему достаточно легко решить благодаря использованию rel=»canonical» для указания поисковым системам ссылки на оригинальную версию.

При использовании канонических URL, сперва нужно реализовать WWW разрешение.

Для этого настройте предпочтительный домен в Google Search консоли в разделе «Параметры сайта».

Google добавляет предпочтительные домены в аккаунт при сканировании Интернета и отображения результатов поиска.

Так что если вы установите предпочтительный домен www.example.com, все ссылки на example.com будут направлять ссылочный вес на www.example.com, который является URL, показываемым Google в результатах поиска.

Затем добавьте канонический тег в секцию <head> HTML — страниц или HTTP заголовок без HTML — страниц:

  • HTML: <link rel=»canonical» href=»https://www.example.com»/>
  • HTTP: Link <https://www.example.com>; rel=»canonical»

При добавлении канонических тегов вы должны быть абсолютно уверены, что URL-адреса, которые вы используете, на 100% соответствуют вашим каноническим URL.

Google видит http://www.example.com, https://www.example.com и example.com как три разные страницы.

Google будет просто игнорировать каноническую ссылку, если вы используете их более одной на странице или ссылку на страницу, которая возвращает 404 ошибку.

Скорость загрузки страниц

Время загрузки страницы является одним из важнейших аспектов юзабилити сайта и SEO оптимизации интернет сайта.

Google стремится предоставлять своим пользователям лучшие веб-сайты, поэтому он не хочет отправлять людей на медленные ресурсы.

Когда вы будете проверять сайт на сео оптимизацию с помощью WooRank, проверьте раздел «Юзабилити», чтобы увидеть его скорость загрузки и сравнить ее с аналогичными показателями у ваших конкурентов.

proverit-sajt-na-seo-optimizaciyuЕсли ваш сайт имеет низкую скорость загрузки, то вам нужно будет оптимизировать следующие элементы:

  • Изображения
    Изображения являются одним из самых больших виновников медленной скорости страницы.
    Не следует полагаться на HTML, чтобы уменьшить размер файла изображения — это может только изменить его размеры в пикселях, но не в байтах.
    Используйте программное обеспечение для редактирования изображений, например, Photoshop, чтобы уменьшить размер файла. Также не лишним будет прибегнуть к использованию инструментов для сжатия изображений без потери их качества (к ним можно отнести различные целевые библиотеки и онлайн-редакторы).
  • Сторонние сервисы
    Некоторые плагины и скрипты, такие как кнопки для постов статей в социальные сети и отслеживающего ПО (Google Analytics, другие счeтчики и статистика), которые необходимы для Вас, чтобы получить максимальную отдачу от вашего сайта.
    По возможности, лучше использовать плагины, разработанные для вашей CMS, и придерживаться одной системы отслеживания трафика. Постоянно обновляйте CMS своего сайта, а также дополнительное ПО (шаблоны, плагины и т.д.), но не забывайте проверять их работоспособность перед установкой на тестовой копии ресурса, чтобы не навредить основному сайту.
  • Кэширование
    Используйте истекающие заголовки (expires headers), чтобы контролировать продолжительность времени, в течении которого ваш сайт будет кэшироваться, а также сообщайте клиентским браузерам, что они могут кэшировать изображения, таблицы стилей, скрипты и Flash.
    Это позволит сократить количество HTTP-запросов, что увеличит скорость загрузки сайта и благотворно влияет на SEO поисковую оптимизацию сайта.
  • G-Zip кодирование
    используйте G-Zip сжатие для уменьшения размера больших файлов на вашем сайте, чтобы сохранить пропускную способность и дополнительно уменьшить время загрузки.
  • Перенаправление
    Некоторые редиректы неизбежны. Тем не менее, помните, что каждое перенаправление — это новый HTTP-запрос, который добавляет миллисекунды во время загрузки.

Если страница сайта не загружается полностью (не все элементы видны), то воспользуйтесь инструментами разработчика браузера (в частности, вкладкой «Сеть/Network»), чтобы найти файлы, которые препятствуют этому.

Дело в том, что их загрузка занимает у браузера слишком много времени, в результате чего часть контента не успевает загрузиться в выделенный промежуток времени.

Адаптивность к мобильным устройствам

Скорость загрузки страниц на мобильных устройствах

Адаптивность к мобильным устройствам имеет прямую связь со скоростью сайта, так как время загрузки является основным фактором в ранжировании сайтов при поиске с мобильных устройств.

Скорость загрузки сайта на мобильных устройствах на порядок важнее аналогичного показателя для настольных компьютеров.

seo-optimizaciya-sajta-samostoyatelnoОб этом свидетельствуют следующие цифры: 40% мобильных пользователей покидают сайт, если страница не загружается в течении 3 секунд.

Google считает сайт адаптивным к мобильным устройствам (mobile-friendly), если загрузка контента его страницы занимает менее одной секунды.

Вы можете оптимизировать скорость загрузки вашего сайта на мобильных устройствах таким же способом, как и для отображения на настольных компьютерах:

  1. Уменьшить размер изображений;
  2. Использовать кэширование;
  3. Снизить количество зависимостей (подключаемых сторонних сервисов);
  4. Свести к минимуму редиректы.

Или вы можете создать ускоренную страницу для мобильных устройств (AMP от английского Accelerated Mobile Page).

AMP является opensource стандартом для создания быстрозагружаемых мобильных страниц при условии большой посещаемости.

Существует три основных составляющих AMP:

  • HTML
    HTML для страниц AMP – это, в основном, обычный HTML. У него есть только несколько пользовательских изменений и ограничений на ресурсы, такие как изображения, видео и фреймы.
  • JavaScript
    Cтраницы AMP используют пользовательскую (custom) JavaScript библиотека, которая загружается асинхронно. Вы также должны установить размеры в HTML, чтобы браузеры знали, как будет выглядеть страница, прежде чем будут загружены все элементы. Таким образом, страница не будет прыгать по мере загрузки других ресурсов.
  • Кэш
    Google имеет выделенный кэш для страниц AMP, которые он использует в результатах поиска. Когда Google загружает страницу, сохраненную в кэше AMP, всe происходит с того же места, что означает лучшую эффективность.

Структура мобильного сайта

При создании мобильной версии сайта нужно соблюдать три основных нюанса:

  • Мобильный поддомен
    Это самый трудный и времязатратный пункт из всех, так как он требует создания отдельного мобильного веб-сайта, размещенный на поддомене (как правило, что-то вроде mobile.example.com или m.example.com).
    Google не сможет самостоятельно определить, что поддомен соответствует  сайту только для мобильных пользователей, так что вам придется использовать тег rel=»canonical» на дублирующихся страницах.
    Этот метод требует много ресурсов, больше, чем следующие пункты, и, как правило, не рекомендуется.
  • Динамический дизайн
    Этот метод определяет агент пользователя (user-agent) и предоставляет различный HTML для мобильных браузеров и браузеров для настольных компьютеров.
    Используйте различные user-agent HTTP заголовки, чтобы сообщить поисковым системам, что вы будете обслуживать различные код, основанный на user-agent.
    Добавьте этот код, если ваш сайт работает на PHP:

    
    <?php header("Vary: User-Agent, Accept"); ?>
    
    

    Аналогичного результат можно добиться также путeм настройки Apache с помощью следующего кода в .htaccess:

    
    Header append Vary User-Agent
    
    

    Добавьте этот код в functions.php, если вы работаете с WordPress:

    
    function add_vary_header($headers) {
    
    $headers['Vary'] = 'User-Agent';
    
    return $headers;
    
    }
    
    add_filter('wp_headers', 'add_vary_header');
    
    
  • Адаптивный дизайн
    Самый простой и легкий способ создать мобильную версию сайта, это — адаптивный дизайн.
    Кстати, этот метод рекомендуем Google. Он просто требует от вас установки мета-тега viewport.
    Он сообщает браузерам, какие размеры использовать при отображении страницы.
    Чтобы сделать страницы вашего сайта адаптивными к мобильным устройствам с помощью мета-тега viewport, пропишите следующие строки в коде хэдера:

    
    <meta name="viewport" content="width-device-width, initial-scale=1.0"/>
    
    

Микроразметка

Структурированная разметка данных (микроразметка) придает значение контенту на вашей странице так, чтобы поисковые системы могли его понять.

Вы можете использовать разметку Schema.org на вашей странице «О нас», например, чтобы сообщить поисковым машинам, где искать ваш адрес, часы работы и номер телефона.

Добавьте еe на страницы товаров, чтобы поисковые системы могли легко найти отзывы и оценки ваших продуктов.

Если у вас есть личный бренд, добавьте разметку для указания образовательной, семейной и профессиональной информации.

О том, как настроить микроразметку на WordPress сайте, вы можете посмотреть в следующем видео:

Наличие микроразметки Schema.org на странице сайта не гарантирует еe более высокие позиции в поисковой выдаче, чем у сайтов, которые не используют еe.

Однако, она весьма полезна для SEO оптимизации сайтов к поисковым системам, так как используется в сниппетах Google.

Самый простой способ увидеть поисковые сниппеты – это произвести поиск по требуемому запросу.

В результатах поиска вы увидите типичный поисковый сниппет: название, URL и описание, наряду с рисунками и звездами рейтинга страницы. Два последних возможны благодаря семантической разметке.

Таким образом, в то время как семантическая разметка не является ранжирующим критерием, она может помочь улучшить ваши позиции в поисковой выдаче.

Чем лучше Google понимает, что находится на вашей странице, тем более вероятно, что у вас будут высокие позиции в результатах поиска.

Плюс ко всему, семантическая разметка также помогает вспомогательным приложениям, таким как программы чтения с экрана, улучшить пользовательский интерфейс вашего сайта.

Резюме

На самом деле, SEO продвижение сайта не ограничивается данной пошаговой инструкцией из 9 пунктов, рассмотренных выше, но этих основ вполне достаточно для того, чтобы ваш сайт имел высокие позиции в поисковых выдачах и, как следствие, высокую посещаемость.

Если же все необходимые меры выполнены, но большого эффекта для роста позиций и посетителей это не принесло, то самое время прибегнуть к сервисам автоматического продвижения сайтов, например, Rookee.

На этом всe! Жду ваших оценок и отзывов в комментариях под статьeй.

Также буду признателен, если поделитесь материалом со своими друзьями в социальных сетях с помощью кнопочек ниже.

Подписывайтесь на обновления проекта, чтобы быть в курсе выходящих статей.

До новых встреч! 🙂

Оригинал статьи — https://www.sitepoint.com/9-point-technical-seo-checklist-for-developers/

Понравилась статья? Поделись с друзьями:
  1. 5
  2. 4
  3. 3
  4. 2
  5. 1
13 голосов, в среднем: 5 из 5

Похожие темы

13 комментариев к статье "СЕО оптимизация сайта самостоятельно: 9 шагов"

  1. Александр

    Спасибо за полезную и интересную информацию!

  2. Дмитрий

    Спасибо за полезную и интересную информацию. Оптимизировать надо и Веб-сайт в целом, и каждый текстовый материал (документ), а все это необходимо, чтобы страничка получала ведущие позиции в поисковых системах Интернета.

  3. Richard

    Прочитал всю статью, узнал много полезной информации о которой раньше вообще не знал, теперь буду применять. Спасибо Вам большое!

  4. Руслан

    Что скажете на счет междоменных канонических страниц? Возможно ли указать роботу каноническую страницу на другом сайте?

    1. Pashaster Автор

      С технической точки зрения, конечно, возможно:

      <link rel="canonical" href="//site2.com/page.html">
      

      С точки зрения здравого смысла, естественно, нужно всё взвесить: являются ли страницы дублями и стоит ли переносить вес и прочие показатели с дубликатов на канонический URL.

        1. Pashaster Автор

          Если контент на страницах одинаковый (пусть даже он находится на разных сайтах), то однозначно стоит.

          1. Руслан

            А как же Яндекс, который это не учитывает?

          2. Руслан

            Внутри одного домена — да. Я спрашивал про междоменную склейку. «Робот не учтет атрибут, если в качестве канонического указывается url с другого хоста или поддомена хоста, на котором атрибут указан».

          3. Руслан

            Возможно не сталкивались с такой проблемой 🙂 думал, может был опыт. Спасибо

          4. Pashaster Автор

            Практического опыта подобных экспериментов у меня не было, но если рассуждать чисто теоретически, то правила, действующие для поддоменнов, должны работать и для разных доменов тоже.

            В цитате Яндекса «Робот не учтет атрибут, если в качестве канонического указывается url с другого хоста или поддомена хоста, на котором атрибут указан» я бы делал акцент не на «Робот не учтет атрибут, если в качестве канонического указывается url с другого хоста или поддомена хоста», а на «url с другого хоста или поддомена хоста, на котором атрибут указан».

            Как по мне, её смысл в том, чтобы на канонической странице не было канонических ссылок на другие страницы.

            Для больших деталей, естественно, лучше проконсультироваться с ТП Яндекса, благо, что такая возможность есть. Если узнаете что-то конкретное — было бы интересно прочитать.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *