Сео блог

Почему НЕ стоит становиться SEO-шником 25.10.2016

Хотите заняться SEO-оптимизацией? Хотите грести бабло лопатой? Хотите работать 3-4 часа в день и зарабатывать при этом месячную зарплату офисного работника? Ну так я вас разочарую:)

Миф 1: в SEO можно легко заработать большие деньги.

Реальность: легких денег не бывает, а в SEO и подавно.

Банальщина – работать придется много и упорно, при этом никто не даст гарантии, что цель окупит средства. Вот висел сайт в ТОП-е, поменялись алгоритмы пересчета позиций – и он оттуда вылетел. А чтобы вернуть его обратно могут понадобиться месяцы.

Миф 2: SEO – это просто.

Реальность: SEO – это сложно.

Алгоритмы работы поисковых систем неизвестны никому. Только лучшие аналитики Интернета смогли немного приблизиться к их разгадке:) Кроме того, они (алгоритмы) постоянно меняются. В борьбе за самые высокочастотные запросы вас будет ждать ожесточенная конкуренция и тогда вы узнаете все «прелести» SEO.

Миф 3: SEO – это творчество.

Реальность: в некотором роде – да.

Но большую часть времени вам придется заниматься рутиной – добычей внешних ссылок, регистрацией в каталогах, подводкой мелочей, вроде чистки кода страниц, написания мета-тегов, расстановкой кейвордов.

Миф 4: SEO – это быстрый результат за небольшое время работы.

Реальность: быстро раскрутить сайт высокочастотной тематики точно не получится:)

На SEO тратится в целом не так много времени, но терпением запастись придется – ждать результата придется многие месяцы.

Комментариев (0)

Ключевые слова и «правило длинного хвоста»

В интернет-маркетинге наблюдается интересная закономерность: 20% товаров приносят 80% прибыли. Иными словами экономика подчинается закону Парето. Эта тенденция также называется «Правилом длинного хвоста». Если переместиться в WEB-среду, то распределение ключевых слов подчиняется тому же принципу.

Условно ключевые слова можно разделить на категории:

traffic keywords – ключевые слова, предназначенные для увеличения трафика;

conversion keywords – слова, продающие определенный товар или услугу;

branding keywords – ключевые слова, упоминающие бренд или несущие имиджевую нагрузку компании;

long tail keywords – многословные НЧ запросы;

Оптимизация для разных типов ключевых слов тоже значительно отличается. Для понимания ранжирования разных типов кейвордов смотрим на диаграмму:

Ключевые слова

Longtail ключевые слова

Как видим, в первом случае роль внутренней оптимизации страницы ничтожно мала, а во втором – она является решающим фактором. Как оптимизировать страницу под long tail? Об этом я расскажу в следующей части статьи.

Шаг 1. Определяем слова, которые нам нужны

Получить возможные словоформы и словосочетания можно с помощью бесплатных сервисов

Также определить набор нужных ключевых слов можно с помощью Google Analytics (Источники трафика -> Ключевые слова). В разделе «Содержание» Google Analytics есть полезная опция просмотра ключевых слов, по которым пользователи попадают на каждую отдельно взятую страницу:
Google Analytics

Шаг 2. Оптимизируем страницу

Допустим, с набором слов мы определились. Дальше все банально – нужно сделать так, чтобы наша страница находилась по нужным НЧ запросам:

Подставляем разные словоформы в тег title и заголовки страниц.

Для поисковика, на самом деле, такой вариант только лучше, чем многократное повторение одного и того же запроса.

Подставляем варианты запросов в контент:

Подбор ключевых слов

На самом деле точного соответствия достичь сложно, т.к. запрос обычно многословный. Вставляйте фразы в текст как можно естественней. Поисковик вас поймет:

Варианты поискового запроса

Не забываем про выделение курсивом или полужирным (поисковики лучше относятся к таким элементам оформления, чем к plain-text).

Оптимизируем теги alt и title.

Шаг 3. Создаем ссылки

Используем модификаторы запросов в якорях внутренних ссылок (но не синонимы)
Текст якоря ссылки с нужным нам запросом помещаем в заголовок

Объем страницы должен быть как можно больше, поскольку классическая тошнота страниц ключевиками малопригодна для long tail продвигаемых документов и все нужные фразы и якоря ссылок должны располагаться в тексте как можно естественнее.

Комментариев (0)

SEO копирайтинг

Что такое seo-копирайтинг? Этим ужасным термином пугают начинающих оптимизаторов и копирайтеров. Если сильно упростить, seo-копирайтинг процесс создания продающего текста, оптимизированного под определенный процент ключевых слов. Причем текст оптимизирован так, чтобы тошнота кейвордов не была заметна читателю.

[Критерии]

На самом деле, существует много тонкостей seo-копирайтинга: оформление текста, заголовков, информативность, иллюстрации. Иными словами, текст должен работать на продажу рекламируемого товара и при этом дружить с поисковиками. Сделать это довольно сложно. SEO-копирайтер должен обеспечить следующие критерии для текста

Размер текста

Плотность ключевых слов

Стиль написания

Подбор слов для анкоров ссылок

Максимальная информативность при минимальном объеме текста

[Частота ключевиков]

Насколько оптимальной должна быть плотность кейвордов? Зависит от мастерства seo-копирайтера. Оптимально – 3-5 %, хотя можно попытаться увеличить до 8-10, но скорее всего, это будет заметно читателю. Больше – высока вероятность нарваться на санкции за поисковый спам.

[Общие рекомендации]

Очень часто можно встретить рекомендации выделять ключевые слова полужирным и курсивом для повышения их веса в глазах поисковиков. Для читателей, если нужно выделить моменты в тексте – выделяйте. А поисковикам, имхо, без разницы. Для увеличения поисковых позиций seo-текста очень важна внутренняя перелинковка и внешние ссылки. Скорость загрузки страниц, хоть и не относится к seo-копирайтингу, но является важным фактором ранжирования.

Так что не перегружайте текст тяжеловесными картинками и видеовставками.

Комментариев (0)

8 советов по подбору доменного имени

1) Используйте названия из ВЧ ключевых слов

2) Не выбирайте доменные имена похожие на известные ресурсы

3) Выбирайте международные домены (.com, .net, .org, .name, .info, .biz)

4) Имя домена должно быть легким для написания и запоминания (чтобы можно было написать под диктовку)

5) Подбирайте максимально короткое доменное имя

6) Старайтесь, чтобы доменное имя максимально отвечало содержимому сайта

7) Не используйте прилагательные слова top, best, hot, цифры и т.п.

8) Для быстрого подбора доменных имен можно пользоваться Ajax Whois 2.0

Комментариев (0)

Цифровые домены

Раньше, я писал, что цифры в имени домена – плохо. Да, это так. Но, из любого правила есть исключения. Домен, состоящий полностью из цифр – не самое худшее решение. Например, по легко запоминающемуся адресу 666.ru находится своеобразный сервис «аццкого поиска».

Числовой домен 466453.com выкуплен Гуглом (клавиши с данными цифрами нужно нажать, чтобы набрать на клавиатуре мобильного телефона слово Google). В отличие от обычных доменов, где все звучные имена уже расхвачены, существует много свободных цифровых доменов с легко запоминающимися номерами (например, несколько одинаковых цифр или цифры с нулями).

Резюме использования цифровых доменов:

1) Индекс или телефонный код региона

2) Сайт CMS-сервиса с коротким номером

3) Нумерация модельного ряда телефонов (так делает Нокиа)

4) Звучные числа (с нулями или одинаковые цифры)

Комментариев (0)

Мультиязычность сайта с учетом SEO

Перед любым серьезным сайтом рано или поздно встает проблема мультиязычности. Локализация важна для привлечения иностранных клиентов и расширения аудитории за счет пользователей из других стран. Также, учитывая популярную у поисковиков практику геотаргетинга, мультиязычность важна для раскрутки основного проекта.

Итак, вопрос дня: как лучше организовать международные версии сайтов?
Субдомен – ru.somesite.com

Хорошее решение для сайтов на международных доменах (.com, .net, .org). Так сделано в Википедии.

Преимущества:

Сохраняется трастовость домена для поисковиков.

Раскрутка субдомена автоматически поднимет тИЦ и PR основного домена.
Субдомен можно разместить на сервере, который географически находится в нужной стране (хорошо для геотаргетинга поисковиков).

Недостатки:

Один из плюсов субдомена является одним из его недостатков – раскручивать субдомен придется отдельно от основного сайта.

Возможность путаницы с внешними ссылками (с приставкой .www и без).
Домен верхнего уровня – somesite.co.ua, somesite.ru, somesite.ua

Если вы хотите создать серьезный международный проект – регистрируйте сразу несколько доменов верхнего уровня разных стран. Так делает Google.

Преимущества:

Очевидность доменного имени для пользователя.

Меньше проблем с внешними ссылками.

Геотаргетинг – для каждой страны свой домен.

Недостатки:

Совершенно никакой связи между разными версиями сайта.

Разные домены – разные сайты, разная раскрутка и внешние ссылки.

Отдельная директория сайта – somesite.com/en/

Преимущества:

Большинство параметров основного домена (например, тИЦ) будут передаваться локализированной версии сайта.

Нет проблем с внешними ссылками и приставкой .www.

Недостатки:

Отсутствие геотаргетинга. Поисковик не хочет понимать, что весь сайт на русском, а одна директория – на английском, следовательно, результаты поиска с этой страницы должны быть ориентированы на англичан.

Локализированная версия сайта будет находится на том же сервере, что и основная.

Комментариев (0)

Интервью Мэтта Каттса Эрику Энджу

Мэтт Каттс работает в Google в качестве тестировщика программного обеспечения с января 2000 года. До этого он работал преподавателем (в статусе кандидата наук) компьютерной графики в Университете Северной Каролины. Имеет научные степени в области математики и компьютерных наук Университета Кентукки.

Мэтт разработал SafeSearch – известный фильтр от Гугла. Каттс работал в отделе «совершенно секретно» Министерства Обороны США, также участвовал в разработке игровых движков. Сейчас он говорит, что работать в Гугле намного веселее, чем на предыдущих местах работы:)
В данный момент Мэтт возглавляет команду Webspam. О нововведениях Google он рассказывает в своем блоге

Представляю вашему вниманию перевод (не дословный, а скорее литературный, потому что, если перевести дословно – получится бред) интервью Мэтта Каттса, взятое у него Эриком Энджом.

Эрик Эндж: Давайте поговорим о концепции сканирования Гуглом. В моем понимании, робот Google посещает определенный сайт, зная сколько страниц он просканирует за день, и если на сайте еще остались непроиндексированные страницы, он ничего с ними делать не будет.

Мэтт Каттс: Вы неправы. Люди, которые думают, что домен может иметь строго определенное число страниц, совершенно не имеют понятия, как работает наш поисковик.

Нет никакого жесткого лимита числа просканированных страниц. Лучшим доказательством моих слов будет то, что количество проиндексированных страниц приблизительно пропорционально Page Rank (не верю, смотрим картинку в конце статьи!). Если вы имеете несколько внешних ссылок на свою главную страницу, мы также их проиндексируем. Если ваша главная страница имеет ссылки на другие страницы, и они получили PR, они тоже будут индексироваться. Чем более сложнее и запутаннее структура вашего сайта, тем больше упадет ваш PR.

Другой причиной снижения общего PR на сайте является передача ссылочного веса страницам с нулевым или очень маленьким Page Rank, на которые есть ссылки с главной. Страницы с низким PR имеют меньший приоритет при сканировании.

Еще одна вещь, которая может быть интересна с точки зрения обхода лимита на индексацию – концепция нагрузки на хост. Нагрузка на хост определяется максимальным количеством одновременных подключений, которые может обеспечить сервер. Допустим, у нас есть сервер, у которого хватает ресурсов обеспечить работу лишь одного поискового робота в одно время. Такой робот сможет проиндексировать весьма ограниченное количество страниц и создаст очень небольшую нагрузку на хост, в то время как сайты подобные FaceBook или Twitter очень сильно нагружают сервер и выдерживают множество одновременных подключений.

Ваш сайт может быть на виртуальном хосте с множеством других сайтов на одном IP-адресе. Теоретически это может замедлить скорость индексации вашего ресурса. Если поисковик не может, из-за нагрузки на сервер, проиндексировать больше некоторого количества страниц, за определенный промежуток времени, это число и будет границей индексации для этого хоста.
Эрик Эндж: Итак, существует два фактора. Один из них PageRank, который определяет, как долго будет сканироваться сайт. Но на время сканирования также будет влиять нагрузка на сервер.
Мэтт Каттс: Правильно. Более того, в подавляющем большинстве сайтов, PR и некоторые другие факторы будут определять, насколько тщательно пройдет индексация. Допустим, у нас на сайте есть 3 страницы. При индексации мы обнаруживаем, что две из этих страниц являются дубликатами третьей. Мы удалим из индекса 2 страницы и оставим только одну. В дальнейшем поисковик будет приделять меньше внимания этому сайту.

Если у вас большая нагрузка на сервер, поисковик может проиндексировать ограниченное число страниц с вашего сайта. Если при этом у вас есть дублированный контент, вы теряете возможность получить в индексе качественные, уникальные страницы.

Если при этом у вас есть дублированный контент, вы теряете возможность получить в индексе качественные, уникальные страницы.

Эрик Эндж: Это похоже на классический совет, который вы всегда даете людям – дублированный контент будет расходовать впустую ресурсы поисковых роботов.

Мэтт Каттс: Да, это так. Идея в том, что ваш PageRank – это как кредит доверия к вашему сайту и высокий его показатель заставит поисковик индексировать все больше и больше страниц с вашего сайта. Но это доверие может быть испорчено дублированным контентом и большой загруженностью сканируемого сервера.

Эрик Эндж: Другая концепция о которой стоит поговорить – это пустая трата ссылочного веса. Я собираюсь использовать термин PageRank, но на самом деле подразумеваю более обширное понятие «ссылочный вес», которые определяет концепцию доверия и авторитетности сайта для поисковой машины. Когда мы ссылаемся с одной страницы на её дубль, мы ведь теряем PageRank, правда?

Мэтт Каттс 2Мэтт Каттс: Есть способ решить эту проблему. Разумеется, дублированный контент не самый значимый фактор, определяющий, как много страниц попадет в индекс, но вполне весомый.

Мой стандартный совет, тем, кто пытается добиться лучшей оптимизации архитектуры сайта – используйте 301 редирект для склейки дублирующих URL-ов с основным (какой неожиданный совет:)). Если нет возможности использовать 301 редирект, используйте параметр rel=canonical для ссылок.
Некоторые люди не имеют соответствующих прав на создание 301 редиректа (например, если сайт на бесплатном хостинге). Но если права все же есть, рекомендуется настроить редирект в обязательном порядке или параметр rel=canonical.

Эрик Эндж: Собственно, этот совет уже как негласный стандарт. Давайте уточним, вы имеете страницу, на которую ссылаются десять страниц. Если три страницы из этих десяти являются дубликатами, означает ли, что ваша страница потеряет три «голоса»?

Matt Cutts: Не обязательно. Это одна из тех вещей, ради исследования которых проводят эксперименты. Вместо того чтобы уменьшить доверие поисковика к странице из-за дубликата, мы «склеиваем» дубли и считаем их за одну. То есть, если на страницу ссылаются три дубликата, ей передастся их общий ссылочный вес.

В целом не факт, что PR полностью теряется при неправильной перелинковке. Это зависит от версии поискового движка и его реализации. Каждый новый алгоритм поисковой системы работает по-разному, поэтому универсальным решением будет случай, когда каждая страница ссылается на другую один раз.

Эрик Эндж: Что вы можете сказать о идентификаторах сессии (Session IDs)?

Мэтт Каттс: Не используйте их. Существует множество способов обойтись без идентификаторов сессий при разработке сайта. Думаю, все вебмастера должны позаботиться об этом, даже не с точки зрения оптимизации, а с точки зрения удобства для посетителя. Пользователи сайта предпочитают кликать по ссылкам, которые выглядят интуитивно понятными и легко запоминаемыми.

Если вы не можете отказаться от идентификаторов сессий, Google предлагает вам инструмент для работы с идентификаторами сессий. Пользователи имеют возможность, как уже было реализовано в Yahoo!, указать часть URL, которая будет проигнорирована или преобразовать сам URL в человекопонятный вид. Google поддерживает такую опцию, также как и некоторые другие поисковые системы, но лучшее решение – отказаться полностью от идентификаторов сессий.

Эрик Эндж: В конечном итоге идентификаторы сессий все равно приведут к появлению дублированного контента.

Мэтт Каттс: Да, именно так. Не всегда поисковая система может опознать идентификатор сессии, что приводит к повторной индексации одной и той же страницы и появлению дублей в индексе.

Следовательно, вебмастеру стоит позаботиться об этом заранее, не надеясь на поисковик.
Eric Enge: Давайте поговорим о партнерских программах. Для передачи трафика в таких программах используются параметры в ссылках. Параметр сохраняется на протяжении всего сеанса браузера. Нормально ли индексируются такие страницы или возникает риск дублирования контента?

Мэтт Каттс: Дублирование контента вполне возможно. Если страницы с разными идентификаторами сессии партнерских программ отличаются, например, одним лишь логотипом, то для поисковика это будет одна и та же страница. Поисковые машины обычно неплохо «склеивают» страницы с разными идентификаторами сессий, но вероятность ошибки и возможного дублирования контента исключать нельзя.

Eric Enge: Если у вас есть страницы, описывающие фактически те же (или похожие) товары, стоит ли в этом случае применять тег canonical?

Matt Cutts: Можно применить параметр canonical, а можно переопределять параметры страниц вручную. Общая идея тега canonical в том, чтобы дать поисковикам понять, что две страницы контента – одно и то же. Нет необходимости различать тот же товар красного цвета или черного и генерировать для них одни и те же страницы описаний. Достаточно сделать одну основную страницу для продукта продажи, а его цветовые вариации передавать как параметры ссылки, используя тег rel=canonical

Eric Enge: Давайте поговорим о влиянии на PageRank или индексацию некоторых инструментов вебмастера. Например, начнем с нашего любимого 301 редиректа.

Matt Cutts: Как правило, 301 редирект передает PageRank. Это очень полезный инструмент для переадресации на другой домен или с одной страницы сайта на другую. Я сам использовал данный редирект при переходе с домена dullest.com на mattcutts.com. Все получилось просто отлично – теперь по запросу site:dullest.com нет ни одной страницы. Весь индекс со старого домена мигрировал на новый. По крайней мере, для меня 301 редирект оказался очень полезным. Этот инструмент весьма неплохая вещь в вашем арсенале.

Eric Enge: Допустим, мы создали редирект с одного домена на второй, тем самым предоставив инструкцию поисковику и пользователю, что наш сайт стоит искать по новому адресу. Теоретически, это может привести к потере PageRank, хотя бы потому, что пользователь ссылается на старый домен, а не на новый?

Matt Cutts: Хороший вопрос, и я сам не могу со 100%-й уверенностью ответить на него положительно или отрицательно. Могу предположить, что небольшая потеря PR все же есть. Я не на 100% уверен, что отдел, который разрабатывал систему сканирования и индексации предусмотрел такую разновидность потери PageRank, но в любом случае я проверю это утверждение на конкретном примере (замечание: позже, Мэтт сообщил по электронной почте, что незначительная потеря PR при 301 редиректе все же есть)

Комментариев (0)

Рерайтинг, он же рерайт

Рерайтинг (рерайт) – обработка текстового контента таким образом, чтобы выходной текст отличался от оригинала, но сохранял первоначальный смысл.

Слово произошло с английского языка, rewrite – переписать. То есть, изначально процесс рерайтинга не подразумевает создание авторского контента, а подразумевает обработку готового. При обработке слова заменяются синонимами, части предложений меняются местами, вырезаются цитаты. Я соблюдаю следующие правила создания рерайта

Структура текста должна сохраняться, т.к. по задумке автора, она может нести в себе определенный логический смысл. Например, есть статья, со структурой: план->теоретические основы/общие сведения->постановка задачи->выражение идеи статьи->выводы. Рерайтер меняет структуру таким образом: общие сведения -> выражение идеи статьи->выводы, что в данном случае будет некорректным.

Смысл текста не должен искажаться.

В обрабатываем тексте, может быть определенный процент ключевых слов. Этот процент нужно сохранить.

Естественно, текст должен значительно отличаться от оригинала.

Цифры не рерайтятся! Если в тексте написано, что объем движка автомобиля 2.9 литра, округление до трех «для уникальности контента» здесь не катит.

Рерайтинг используется для создания уникального контента из уже имеющегося, не нарушая при этом авторского права. В некоторых случаях цель рерайта не только получить уникальную продукцию, а изменить стиль повествования статьи. Например, статья написана в строго научном стиле, а её нужно переписать для широкой аудитории. Или идея статьи нужная и актуальная, а текст написан грубо и нечитабельно, в таком случае производится художественная обработка.

Частный случай рерайтинга – мульти-рерайтинг. Цель мульти-рерайтинга – размножить один авторский текст на сотни и тысячи похожих. Осуществляется такая операция программами автоматической обработки, которые хорошо справляются с задачей замены слов синонимами, но сильно ухудшают читабельность. Но, поскольку, такие тексты пишутся, в основном, для привлечения поисковых машин, задача сохранить читабельность не ставится.

Комментариев (0)

О сателлитах

Как я уже писал, сателлит – это спутник основного сайта, используемый для его раскрутки. Впрочем, сателлиты могут выполнять и другие функции. Например, их можно успешно монетизировать, размещая покупные ссылки с сапы (на самом деле, это слово правильно произносится «сэйп»:)) или используя для слива трафика на сайты партнерских программ.

Бытует мнение, что жизнь сателлита коротка и такие сайты через определенное мнение обязательно попадают в бан поисковых систем. Но, если подумать, почему сателлит должен попадать в бан, если с точки зрения ПС он ничем не отличается от обычного сайта? Посудите сами – если нет поискового спама, «нехороших» редиректов, клоакинга, контент полностью уникален, – за что банить такой сайт?

Правильно – не за что.

В разработке сателлитов есть свои нюансы. Один или два сателлита, кроме своей основной функции, не принесут пользы и прибыли. У таких сайтов, как правило, посещаемость стремится к нулю, показатели тИЦ и PR равны нулю. Цена за размещенную ссылку будет в районе 0.05 wmz в месяц. Сколько нужно разместить ссылок, чтобы окупить хостинг (не говоря о прибыли) можете посчитать сами. Поэтому, сателлитов должно быть много, это раз. Второе – некоторое время они должны повисеть без рекламы, индексируясь и набирая вес в глазах поисковика.

Резюмируя вышесказанное, подведем основные моменты в монетизации сателлитов:

Чтобы хоть как-то зарабатывать, сателлитов должно быть много (несколько десятков)

Пользуйтесь контекстной рекламой (Яндекс.Директ, Google Adsense)

Не загоняйте сателлит сразу после первой индексации в биржи продажи ссылок, дайте им полностью проиндексироваться и получить минимальный ссылочный вес
Используйте только уникальный контент

Используйте бесплатные методы продвижения, чтобы получить минимальные значения тИЦ и PR – доход с таких сайтов будет намного выше чем с нулевых

Если нужно более подробно изучить тематику сателлитов и монетизации, советую посетить SEO блог, где также можно ознакомиться с другими вопросами seo-оптимизации и поисковой раскрутки сайтов.

 

Комментариев (0)