Что такое семантическое ядро? Как составить эффективное семантическое ядро. Как правильно составить семантическое ядро? Как составить семантическое ядро самостоятельно

Часто начинающие вебмастера, сталкиваясь с необходимостью создания семантического ядра, не знают с чего начать. Хотя ничего сложного в этом процессе нет. Проще говоря, нужно собрать список ключевых фраз по которым интернет пользователи ищут информацию, находящуюся на вашем сайте.

Чем полнее и точнее он будет, тем проще копирайтеру написать хороший текст, а вам получить высокие позиции в поиске по нужным запросам. О том, как правильно составлять большие и качественные смысловые ядра и что с ними делать дальше, чтобы сайт выходил в топ и собирал много трафика, и пойдёт речь в этом материале.

Семантическое ядро — это набор ключевых фраз, разгруппированных по смыслу, где каждая группа отражает одну потребность или желание пользователя (интент). То есть то, о чем думает человек, вбивая свой запрос в поисковую строку.

Весь процесс создания ядра можно представить в 4 шагах:

  1. Сталкиваемся с задачей или проблемой;
  2. В голове формулируем, как можно найти её решение через поиск;
  3. Вбиваем запрос в Яндекс или Гугл. Помимо нас, то же самое делают и другие люди;
  4. Наиболее частые варианты обращений попадают в сервисы аналитики и становятся ключевыми фразами, которые мы с вами собираем и группируем по потребностям. В результате всех этих манипуляций получается семантическое ядро.

Обязательно ли подбирать ключевые фразы или можно обойтись без этого?

Раньше семантику составляли для того, чтобы найти наиболее частотные ключевики по теме, вписать их в текст и получить хорошую видимость по ним в поиске. Последние 5 лет поисковые системы стремятся перейти на модель, где релевантность документа запросу будет оцениваться не по количеству слов и разнообразию их вариаций в тексте, а по оценке раскрытия интента.

У Гугл — это началось в 2013 году с алгоритмом Колибри, у Яндекса в 2016 и 2017 с технологиями Палех и Королев соответственно.

Тексты, написанные без СЯ, не смогут полностью раскрыть тему, а значит конкурировать с ТОП-ом по высокочастотным и среднечастотным запросам не получится. Делать ставку на низкочастотные запросы не имеет смысла — слишком мало трафика по ним.

Если вы хотите и в будущем успешно продвигать себя или свой продукт в интернете — нужно научиться составлять правильную семантику, которая полностью раскрывает потребности пользователей.

Классификация поисковых запросов

Разберем 3 типа параметров, по которым оцениваются ключевые слова.

По частотности:

  • Высокочастотные (ВЧ) – фразы, определяющие тему. Состоят из 1-2 слов. В среднем количество поисковых запросов начинается от 1000-3000 в месяц и может достигать сотен тысяч показов, зависит от тематики. Чаще всего под них затачиваются главные страницы сайтов.
  • Среднечастотные (СЧ) – отдельные направления в теме. Преимущественно содержат 2-3 слова. С точной частотностью от 500 до 1000. Обычно категории коммерческого сайта или темы для крупных информационных статей.
  • Низкочастотные (НЧ) – запросы, относящиеся к поиску конкретного ответа на вопрос. Как правило, от 3-4 слов. Это может быть карточка товара или тема статьи. В среднем ищут от 50 до 500 человек в месяц.
  • При анализе метрики или данных счетчиков статистики можно встретить еще один вид — микро НЧ ключи. Это фразы, которые часто спрашивают единожды на поиске. Смысла затачивать под них страницу нет. Достаточно быть в топе по НЧ, который в себя их включает.


По конкурентности:

  • Высоконкурентные (ВК);
  • Среднеконкрентые (СК);
  • Низконкурентные (НК);

По потребности:

  • Навигационные. Выражают желание пользователя найти конкретный интернет-ресурс или информацию на нем;
  • Информационные. Характеризуются наличием потребности в получении информации в качестве ответа на запрос;
  • Транзакционные. Напрямую связаны с желанием совершить покупку;
  • Нечеткие или общие. Те по которым сложно точно определить интент.
  • Геозависимые и геонезависимые. Отражают потребность в поиске информации или совершения транзакции в своем городе или без региональной привязки.


В зависимости от типа сайта можно дать следующие рекомендации при подборе ключевых фраз для семантического ядра.

  1. Информационный ресурс . Основной упор стоит сделать на поиске тем для статей в виде СЧ и НЧ запросов с низкой конкуренцией. Рекомендуется раскрывать тему широко и глубоко, затачивая страницу под большое количество НЧ ключей.
  2. Интернет-магазин или коммерческий сайт. Собираем ВЧ, СЧ и НЧ, максимально четко сегментируя, чтобы все фразы были транзакционного типа и относились к одному кластеру. Акцент делаем на поиск хорошо конвертируемых НЧ НК ключевиков.

Как правильно составить большое смысловое ядро – пошаговая инструкция

Мы перешли к главной части статьи, где я буду последовательно, разбирать основные этапы, которые нужно пройти для построения ядра будущего сайта.
Чтобы процесс был понятнее, все шаги даны с примерами.

Поиск основных фраз

Работа с сео ядром начинается с выбора первичного списка основных слов и словосочетаний (ВЧ), которые лучше всего характеризуют тематику и употребляются в широком смысле. Их еще называют маркерами.

Это могут быть, как названия направлений, так и виды продукции, популярные запросы из темы. Как правило они состоят из 1-2 слов и насчитывают десятки, а иногда и сотни тысяч показов в месяц. Совсем широкие ключи лучше не брать, чтобы не утонуть в минус-словах на этапе расширения.

Удобней всего подбирать маркерные фразы, используя . Вбивая запрос в него, в левой колонке мы видим словосочетания, которые он в себе содержит, в правой – похожие запросы из которых часто можно найти подходящие для расширения темы. Также сервис показывает базовую частотность фразы, то есть сколько раз ее спрашивали за месяц во всех словоформах и с добавлением любых слов к ней.

Сама по себе такая частотность мало интересна, поэтому чтобы получить более точные значения нужно использовать операторы. Разберем, что это такое и для чего нужно.

Операторы Яндекс Вордстат:

1) «…» – кавычки. Запрос в кавычках позволяет отследить сколько раз в Яндексе искали фразу со всеми ее словоформами, но без добавления других слов (хвостов).

2) ! – восклицательный знак. Используя его перед каждым словом в запросе мы фиксируем его форму и получаем количество показов в поиске по ключевой фразе только в указанной словоформе, но с хвостом.

3) «!… !… !…» – кавычки и восклицательный знак перед каждым словом. Самый важный оператор для оптимизатора. Он позволяет понять сколько раз ключевик запрашивают в месяц строго по заданному словосочетанию, в том виде как оно написано, без добавления каких-либо слов.

4) +. Яндекс Вордстат не учитывает предлоги и местоимения при запросе. Если нужно чтобы он их показал — ставим перед ними знак плюс.

5) -. Второй по важности оператор. С его помощью быстро отсеиваются слова, которые не подходят. Чтобы его применить после анализируемой фразы ставим минус и стоп-слово. Если их несколько повторяем процедуру.

6) (…|…). Если нужно получить от Яндекс Вордстат данные по нескольким фразам одновременно заключаем их в скобки и разделяем прямым слешом. На практике метод используется редко.

Для удобства работы с сервисом, рекомендую поставить специальное расширение для браузера «Wordstat Assistant». Ставится на Мозилу, Гугл Хром, Я.Браузер и позволяет копировать фразы и их частотности одним нажатием иконки «+» или «Добавить все».


Допустим мы решили сделать свой блог по сео. Выберем для него 7 основных фраз:

  • семантическое ядро;
  • оптимизация;
  • копирайтинг;
  • продвижение;
  • монетизация;
  • Директ

Поиск синонимов

При формулировке запроса поисковым системам, пользователи могут использовать слова близкие по смыслу, но разные по написанию.

Например, «автомобиль» и «машина».

Важно найти, как можно больше синонимов к основным словам, чтобы увеличить охват будущего смыслового ядра. Если это не сделать, то при парсинге мы упустим целый пласт ключевых фраз, раскрывающих потребности пользователей.

Что используем:

  • Мозговой штурм;
  • Правую колонку Яндекс Вордстат;
  • Запросы набранные на кириллице;
  • Специальные термины, аббревиатуры, сленговые выражения из тематики;
  • Блоки Яндекс и Гугл – вместе с «название запроса» ищут;
  • Сниппеты конкурентов.

В результате всех действий для выбранной темы получаем такой список фраз:


Расширение основных запросов

Распарсим эти ключевые слова, чтобы выявить основные потребности людей в этой сфере.
Удобней всего это делать в программе Key Collector, но если жалко платить 1800 рублей за лицензию, пользуйтесь ее бесплатным аналогом — Словоёбом.

По функционалу он конечно слабее, но для небольших проектов подойдет.
Если не хочется вникать в работу программ можно использовать сервис Just-Magiс и Rush Analytics. Но все-таки лучше потратить немного времени и разобраться с софтом.

Я буду показывать принцип работы в Кей Коллекторе, но если вы работаете со Словоебом, то тоже все будет понятно. Интерфейс программ схож.

Порядок действий:

1) Добавим список основных фраз в программу и снимем по ним базовую и точную частотность. Если мы планируем продвижение в конкретном регионе — указываем региональность. Для информационных сайтов чаще всего это не нужно.


2) Спарсим левую колонку Яндекс Вордстат по добавленным словам, чтобы получить все запросы из нашей темы.


3) На выходе у нас получилось 3374 фразы. Снимем по ним точную частотность, как в 1-ом пункте.


4) Проверим нет ли в списке ключей с нулевой базовой частотностью.


Если есть удаляем и переходим к следующему шагу.

Минус-слова

Многие пренебрегают процедурой сбора минус-слов, заменяя ее удалением фраз, которые не подходят. Но позже вы поймете, что это удобно и реально экономит время.

Открываем в Кей Коллекторе вкладку Данные -> Анализ. Выбираем тип группировки по отдельным словам и листаем список ключей. Если видим фразу, которая не подходит — нажимаем синюю иконку и добавляем слово вместо со всеми его словоформами в стоп-слова.


В Словоебе работа со стоп-словами реализовано в более упрощенном варианте, но вы также можете составить свой список фраз, которые не подходят и применять их к списку.

Не забываем использовать сортировку по Базовой частотности и количеству фраз. Эта опция помогает быстро уменьшить список исходных фраз или отсеять редко встречающиеся.


После того как мы составили список стоп-слов, применяем их к нашему проекту и переходим к сбору поисковых подсказок.

Парсинг подсказок

При вводе запроса в Яндекс или Гугл, поисковики предлагают свои варианты его продолжения из наиболее популярных фраз, которые вбивают пользователи интернета. Эти ключевики называются поисковыми подсказками.

Многие из них не попадают в Вордстат, поэтому при построении семантического нужно обязательно собирать такие запросы.

Кей Коллектор, по умолчанию парсит их с перебором окончаний, кириллического и латинского алфавита и с пробелом после каждого словосочетания. Если вы готовы готовы пожертвовать количеством, чтобы значительно ускорить процесс, ставим галочку на пункте «Собирать только ТОП подсказок без перебора и пробела после фразы».


Часто среди поисковых подсказок можно найти фразы с хорошей частотностью и конкуренцией в десятки раз ниже, чем в Вордстате, поэтому в узких нишах я рекомендую собирать максимум слов.

Время парсинга подсказок напрямую зависит от количество одновременных обращений к серверам поисковым систем. Максимально Кей Коллектор поддерживает 50-ти поточную работу.
Но для того чтобы парсить запросы в таком режиме понадобится столько же прокси и аккаунтов в Яндексе.

Для нашего проекта, после сбора подсказок, получилось 29595 уникальных фраз. По времени весь процесс занял чуть больше 2-х часов на 10 потоках. То есть, если их будет 50 — уложимся в 25 минут.


Определение базовой и точной частотности для всех фраз

Для дальнейшей работы важно определить базовую и точную частотность и отсеять все нулевики. Запросы с малым количеством показов оставляем, если они целевые.
Это поможет лучше понять интент и создать более полную структуру статьи, чем есть в топе.

Для того, чтобы снять частотность сначала отсеиваем все лишнее:

  • повторы слов
  • ключи с прочими символами;
  • дубли фраз (через инструмент «Анализ неявных дублей»)


Для оставшихся фраз определим точную и базовую частотность.

а) для фраз до 7 слов:

  • Выбираем через фильтр «Фраза состоит не более чем из 7 слов»
  • Открываем окошко «Сбор с Yandex.Direct», кликнув по иконке «Д»;
  • Если нужно указываем регион;
  • Выбираем режим гарантированные показы;
  • Ставим период сбора – 1 месяц и галочки над нужными видами частотностей;
  • Нажимаем «Получить данные».


б) для фраз от 8 слов:

  • Задаем для графы «Фраза» фильтр — «состоит, как минимумом из 8 слов»;
  • При необходимости продвижения в конкретном городе внизу указываем регион;
  • Нажимаем на лупу и выбираем «Собрать все виды частот».


Чистка ключевых слов от мусора

После того, как мы получили информацию о количестве показов для наших ключей можно приступать к отсеву не подходящих.

Рассмотрим порядок действий по шагам:

1. Переходим в «Анализ групп» Кей Коллектора и сортируем ключи по количеству употребления слов. Задача найти нецелевые и частые и занести их в список стоп-слов.
Делаем все также как в пункте «Минус слова».


2. Применяем к списку наших фраз все найденные стоп-слова и пробегаемся по нему, чтобы точно не потерять целевые запросы. После проверки нажимаем удалить «Отмеченные фразы».


3. Отсеиваем фразы пустышки, которые редко используются в точном вхождении, но имеют высокую базовую частоту. Для этого в настройках программы Кей Коллектор в пункте «KEY&SERP» вставляем формулу расчета: KEY 1 = (YandexWordstatBaseFreq) / (YandexWordstatQuotePointFreq) и сохраняем изменения.


4. Производим расчет KEY 1 и удаляем те фразы у которых этот параметр получился от 100 и больше.


Оставшиеся ключи нужно сгруппировать по посадочным страницам.

Кластеризация

Распределение запросов по группам начинается с кластеризации фраз по топу через бесплатную программу «Majento Кластеризатор». Я рекомендую, платный аналог с более широким функционалом и быстрой скоростью работы — KeyAssort, но и бесплатного вполне хватает для небольшого ядра. Единственный нюанс, что для работы в любом из них нужно будет купить XML-лимиты. Средняя цена – 5 р. за 1000 запросов. То есть обработка среднего ядра на 20-30 тысяч ключей обойдется в 100-150 р. Адрес сервиса, которым пользуясь, смотрите на скриншоте ниже.


Суть кластеризации ключей этим методом заключается в объединении в группы тех фраз, которые имеют по Топ-10 Яндекса:

  • общие url-ы друг с другом (Hard)
  • с самым частотным запросом в группе (Soft).

В зависимости от количества таких совпадении для разных сайтов, выделяют пороги кластеризации: 2, 3, 4 … 10.

Преимущество способа – группировка словосочетаний по потребностям людей, а не только по синонимическим связям. Это позволяет сразу понять какие ключевики можно использовать на одной посадочной странице.

Для информационников подойдет:

  • Soft с порогом 3-4 и потом чистка руками;
  • Hard на 3-ке, а потом объединение кластеров по смыслу.

Интернет-магазины и коммерческие сайты, как правило, продвигается по Hard-у с порогом кластеризации 3.Тема объемная, поэтому я позже разберу ее в отдельной статье.

Для нашего проекта после группировки методом Hard на 3-ке получилось 317 групп.


Проверка конкуренции

Нет смысла продвигаться по высококонкурентным запросам. В топ попасть сложно, а без него трафика на статью не будет. Чтобы понять на какие темы выгодно писать используем следующий метод:

Ориентируемся на точную частотность группы фраз под которую пишется статья и конкуренцию по Мутагену. Для информационных сайтов, я рекомендую, брать в работу темы, у которых суммарная точная частотность от 300 и выше, а коэффицент конкурентности от 1 до 12 включительно.

В коммерческой тематике ориентируйтесь на маржинальность товара или услуги и то как делают конкуренты в топ 10. Даже 5-10 целевых запросов в месяц может быть основанием сделать под нее отдельную страницу.

Как проверить конкуренцию по запросу:

а) вручную, вбив соответствующую фразу в самом сервисе или через массовые задания;


б) в пакетном режиме через программу Кей Коллектор.


Выбор тем и группировка

Рассмотрим, каждую из получившихся групп для нашего проекта после кластеризации и выберем темы для сайта.
Majento в отличии от Key Assort не дает возможность загрузить данные о количестве показов для каждой фразы, поэтому придется дополнительно снимать их через Кей Коллектор.

Инструкция:

1) Выгружаем все группы из Majento в формате CSV;
2) Сцепляем фразы в Excel по маске «группа:ключ»;
3) Загружаем полученный список в Key Сollector. В настройках обязательно должна стоять галочка в режиме импортирования «Группа:Ключ» и не следить за наличием фраз в других группах;


4) Снимаем для ключевиков из вновь созданных групп базовую и точную частотность. (Если вы пользуетесь Key Assort, то это делать не нужно. Программа позволяет работать с дополнительными столбцами)
5) Ищем кластеры с уникальным интентом, содержащие не менее 3-х фраз и количеством показов по всем запросам в сумме больше 300. Далее проверяем 3-4 самые частотные из них на конкурентность по Мутагену. Если среди этих словосочетаний есть ключи с конкуренцией меньше 12 — берем в работу;

6) Просматриваем остальные группы. Если встречаются близкие по смыслу словосочетания и их стоит рассмотреть в рамках одной страницы — объединяем. Для групп, содержащих новые смыслы смотрим на перспективы по суммарной частотности фраз, если она меньше 150 в месяц, то откладываем до того момента, как пройдемся по всему ядру. Возможно получится их объединить с другим кластером и набрать 300 точных показов — это тот минимум от которого стоит брать статью в работу. Для ускорения ручной группировки пользуйтесь вспомогательными инструментами: быстрый фильтр и частотный словарь. Они помогут быстро найти подходящие фразы из других кластеров;


Внимание!!! Как понять, что кластера можно объединить? Берем 2 частотных ключа из тех что подобрали в пункте 5 для посадочной страницы и 1 запрос из новой группы.
Добавляем их в инструмент Арсенкина «Выгрузка Топ 10», указываем нужный регион при необходимости. Далее смотрим на количество пересечений по цвету для 3-ой фразы с остальными. Объединяем группы, если их от 3-х и более. Если нет совпадений или одно, объединять нельзя — разные интенты, в случае с 2-мя пересечениями смотрите выдачу руками и используйте логику.

7) После группировки ключей получаем список перспективных тем для статей и семантику под них.


Удаление запросов другого типа контента

При составлении семантического ядра важно понимать, что для блогов и информационных сайтов коммерческие запросы не нужны. Так же, как и интернет-магазинам не нужна информационка.

Пробегаемся по каждой группе и чистим все лишнее, если не получается точно определить интент запроса — сравниваем выдачу или используем инструменты:

  • Проверку на коммерциализацию от Пиксель Тулс (бесплатно, но с дневным лимитом проверок);
  • сервис Just-Magic, кластеризация с галочкой проверить коммерческость запроса (платно, стоимость зависит от тарифа)

После этого переходим к последнему этапу.

Оптимизация фраз

Оптимизируем смысловое ядро, чтобы с ним было удобно работать в дальнейшем seo-специалисту и копирайтеру. Для этого оставим в каждой группе ключевые фразы, которые максимально полно отражают потребности людей и содержат, как можно больше синонимов к основным фразам.

Алгоритм действий:

  • Отсортируем ключевики в Excel или Кей Коллектор по алфавиту от А до Я;
  • Выберем те, которые раскрывают тему с разных сторон и разными словами. При прочих равных оставляем фразы с более высокой точной частотностью или у которых ниже показатель key 1 (отношение базовой частоты к точной);
  • Удаляем ключевики с количеством показов в месяц меньше 7, которые не несут новых смыслов и не содержат уникальных синонимов.

Пример, как выглядит грамотно составленное смысловое ядро –

Красным цветом я отметил фразы не подходящие по интенту. Если пренебречь моими рекомендациями по ручной группировке и не проверять совместимость получится, что страница будет оптимизирована под несовместимые ключевые фразы и высоких позиций по продвигаемым запросам уже не видать.

Итоговый чек-лист

  1. Подбираем основные высокочастотные запросы, которые задают тематику;
  2. Ищем синонимы к ним, используя левую и правую колонку Вордстат, сайты конкурентов и их сниппеты;
  3. Расширяем полученные запросы парсингом левой колонки Вордстат;
  4. Готовим список стоп-слов и применяем к полученным фразам;
  5. Парсим подсказки Яндекс и Гугл;
  6. Снимаем базовую и точную частотку;
  7. Расширяем список минус-слов. Чистим от мусора и запросов пустышек
  8. Делаем кластеризацию через Majento или KeyAssort. Для информационных сайтов в режиме Soft, порог 3-4. Для коммерческих интернет-ресурсов методом Hard с порогом 3.
  9. Импортируем данные в Кей Коллектор и определяем конкуренцию 3-4 фраз для каждого кластера с уникальным интентом;
  10. Выбираем темы и определяемся с посадочными страницами под запросы на основе оценки суммарного количество точных показов по всем фразам из одного кластера (от 300 для информационников) и конкуренции по самым частотным из них по Мутагену (до 12).
  11. Для каждой подходящей страницы ищем другие кластеры с похожими потребностями пользователей. Если мы можем их рассмотреть на одной странице – объединяем. Когда потребность не ясна или есть подозрения, что в качестве ответа на нее должен быть другой тип контента или страницы — проверяем по выдаче или через инструменты Пиксель Тулс или Just-Magic. Для контентных сайтов ядро должно состоять из информационных запросов, у коммерческих из транзакционных. Лишнее удаляем.
  12. Сортируем ключи в каждой группе по алфавиту и оставляем те из них, которые описывают тему с разных сторон и разными словами. При прочих равных приоритет тем запросам, у которых меньше отношение базовой частотности к точной и более высокое количество точных показов в месяц.

Что делать с SEO-ядром после его создания

Составили список ключей, отдали их автору и он написал отличную статью полностью, раскрывающую все смыслы. Эх, что то я размечтался… Толковый текст получится только в том случае, если копирайтер четко понимает, что вы от него хотите и как ему себя проверить.

Разберем 4 составляющие, качественно проработав, которые вы гарантировано получите много целевого трафика на статью:

Хорошая структура. Анализируем запросы, подобранные для посадочной странице и выявляем, какие потребности есть у людей в этой теме. Далее пишем план статьи, который полностью отвечает на них. Задача сделать так, чтобы люди, зайдя на сайт получили объемный и исчерпывающий ответ по той семантике, которую вы составили. Это даст хорошие поведенческие и высокую релевантность интенту. После того как вы составили план, посмотрите сайты конкурентов, вбив основной продвигаемый запрос в поиск. Делать нужно именно, в такой последовательности. То есть сначала делаем сами, потом смотрим что у других и если нужно дорабатываем.

Оптимизация под ключи. Саму статью затачиваем под 1-2 самых частотных ключа с конкуренцией по Мутагену до 12. Еще 2-3 среднечастотные фразы можно использовать в качестве заголовков, но в разбавленном виде, то есть вставляя в них дополнительные не относящиеся к теме слова, используя синонимы и словоформы. Основной упор делаем на низкочастотные фразы из которых выдергивает уникальную часть — хвост и равномерно внедряем в текст. Поисковики сами все найдут и склеят.

Синонимы к основным запросам. Выписываем их отдельно из нашего семантического ядра и ставим задачу копирайтеру использовать их равномерно по тексту. Это поможет снизить плотность по нашим основным словам и при этом текст получится достаточно оптимизированным, чтобы попасть в топ.

Тематико-задающие фразы. Сами по себе LSI не продвигают страницу, но их наличие указывает на то, что скорее всего написанный текст принадлежит «перу» эксперта, а это уже плюс к качеству контента. Для поиска тематических словосочетаний используем инструмент «Техническое задание для копирайтера» от Пиксель Тулс.


Альтернативный метод подбора ключевых фраз с использованием сервисов для анализа конкурентов

Существует быстрый подход к созданию семантического ядра, который применим как для новичков, так и для опытных пользователей. Суть метода заключается в том, что мы изначально выбираем ключи не для всего сайта или категории, а конкретно под статью, посадочную страницу.

Его можно реализовать 2-мя способами, которые отличаются тем, как мы выбираем темы для страницы и насколько глубоко расширяем ключевые фразы:

  • с помощью парсинга основных ключей;
  • на основе анализа конкурентов.

Каждый из них можно реализовать на простом и более сложном уровне. Разберем все варианты.

Без использования программ

Копирайтеру или вебмастеру часто не хочется разбираться с интерфейсом большого количества программ, но нужны хорошие темы и ключевые фразы под них.
Этот метод, как раз для новичков и тех кто не хочет заморачиваться. Все действия производятся без использования дополнительного софта, с помощью простых и понятных сервисов.

Что понадобится:

  • Сервис Keys.so для анализа конкурентов – 1500 р. По промокоду «altblog» — скидка 15%;
  • Мутаген. Проверка конкурентности запросов – 30 копеек, сбор базовой и точной частотности – 2 копейки за 1 проверку;
  • Букварикс – бесплатная версия или бизнес-аккаунт — 995 р. (сейчас со скидкой 695 р)

Вариант 1. Выбор темы через парсинг основных фраз:

  1. Подбираем основные ключи из тематики в широком смысле, используя мозговой штурм и левую и правую колонку Яндекс Вордстат;
  2. Далее ищем к ним синонимы, методами о которых говорилось раннее;
  3. Забиваем все полученные маркерные запросы в Букварикс (понадобится оплатить платный тариф) в расширенном режиме «Поиск по списку ключевых слов»;
  4. Указываем в фильтре: «!Точная!частотность»от 50, Количество слов от 3;
  5. Выгружаем весь список в Excel;
  6. Выделяем все ключевики и отправляем на группировку в сервис «Кулаков кластеризатор». Если сайт региональный выбираем нужный город. Порог кластеризации для информационных сайтов оставляем на 2-х, для коммерческих ставим 3-ку;
  7. После группировки выбираем темы для статей, просматривая получившиеся кластеры. Берем те, где количество фраз от 3-х и с уникальным интентом. Лучше понять потребности людей помогает анализ url-ов сайтов из топа в графе «Конкуренты» (справа в табличке сервиса Кулакова). Также не забываем проверять конкурентность по Мутагену. Пробиваем 2-3 запроса из кластера. Если все больше 12, то тему брать не стоит;
  8. С названием будущей посадочной страницы определились, осталось подобрать ключевые фразы для нее;
  9. Из поля «Конкуренты» копируем 3 урла с подходящим типом страниц (если сайт информационный – берем ссылки на статьи, если коммерческий, то на магазины);
  10. Вставляем их последовательно в keys.so и выгружаем все ключевые фразы по ним;
  11. Объединяем их в Excel-е и удаляем дубли;
  12. Данных только сервиса недостаточно, поэтому надо расширить их. Снова воспользуемся Буквариксом;
  13. Полученный список отправляем на кластеризации в «Кулаков кластеризатор»;
  14. Отбираем группы запросов, которые подходят для посадочной страницы, ориентируясь на интент;
  15. Снимаем базовую и точную частотность через Мутаген в режиме «Массовые задания»;
  16. Выгружаем список с уточненными данными по количеству показов в Excel. Удаляем нулевки для обоих видов частоток;
  17. Также в Excel, добавляем формулу отношения базовой частотности к точной и оставляем только те ключи у которых это отношение меньше 100;
  18. Удаляем запросы другого типа контента;
  19. Оставляем фразы, которые максимально полно и разными словами раскрывают основной интент;
  20. Повторяем все те же действия по пунктам 8-19 для остальных тем.

Вариант 2. Выбираем тему через анализ конкурентов :

1. Ищем топовые сайты в нашей тематике, вбивая ВЧ запросы и просматривая выдачу через инструмент Арсенкина «Анализ Топ-10». Достаточно найти 1-2 подходящих ресурса.
Если продвигаем сайт в конкретном городе указываем региональность;
2. Переходим в сервис keys.so и вводим в него url-ы сайтов, которые нашли и смотрим какие страницы конкурентов приносят больше всего трафика.
3. 3-5 самых точных частотных запроса из них проверяем на конкурентность. Если по всем фразам она выше 12, то лучше поискать другую тему менее конкурентную.
4. Если нужно найти больше сайтов для анализа открываем вкладку «Конкуренты» и задаем параметры: похожесть — 3, тематичность — 10. Сортируем данные по убывания трафика.
5. После того как мы выбрали тему, вбиваем ее название в выдачу и копируем 3 урла из топа.
6. Далее повторяем пункты 10-19 из 1-го варианта.

С использованием Кей Коллектора или Словоеба

Этот метод будет отличаться от предыдущего только использованием для некоторых операции программы Кей Коллектор и более глубоким расширением ключей.

Что понадобится:

  • программа Кей Коллектор – 1800 рублей;
  • все те же сервисы, что и в предыдущем способе.

«Продвинутый – 1»

  1. Парсим левую и правую колонку Яндекса по всему списку фраз;
  2. Снимаем точную и базовую частотность через Кей Коллектор;
  3. Вычисляем показатель key 1;
  4. Удаляем запросы нулевки и с key 1 > 100;
  5. Далее делаем все также, как в пунктах 18-19 варианта 1.

«Продвинутый — 2»

  1. Делаем шаги 1-5, как в варианте 2;
  2. Собираем по каждому url-у ключи в keys.so;
  3. Удаляем дубли в Кей Коллекторе;
  4. Повторяем Пункты 1-4, как в методе «Продвинутый -1».

Теперь сравним количество полученных ключей и их точную суммарную частотность при сборе СЯ разными методами:

Как видим из таблицы, лучший результат показал альтернативный метод создания ядра под страницу — «Продвинутый 1,2». Удалось получить на 34% больше целевых ключей и при этом суммарный трафик по кластеру получился на 51% больше, чем в случае с классическим методом.

Ниже на скриншотах, видно, как выглядит готовое ядро, в каждом из случаев. Я взял фразы с точным количеством показов от 7 в месяц, чтобы можно было оценить качество ключевиков. Полную семантику смотрите в таблице по ссылке «Посмотреть».

А)


Б)


В)

Теперь вы знаете, что не всегда самый распространенный способ, как делают все, самый верный и правильный, но отказываться от других методов тоже не стоит. Многое зависит от самой тематики. Для коммерческих сайтов, где ключей не так много, вполне достаточно и классического варианта. На информационных сайтах также можно получить отличные результаты, если правильно составить ТЗ копирайтеру, сделать хорошую структуру и seo-оптимизацию. Обо всем этом мы подробно поговорим в следующих статьях.

3 частые ошибки при создании семантического ядра

1. Сбор фраз по верхам. Недостаточно спарсить Вордстат, чтобы получить хороший результат!
Более 70% запросов, которые вводят люди редко или периодами, вообще туда не попадают. А ведь среди них часто встречаются ключевые фразы с хорошей конверсией и реально низкой конкуренцией. Как их не упустить? Обязательно собирайте поисковые подсказки и комбинируйте их с данными из разных источников ( , счетчики на сайтах, сервисы статистики и базы данных).

2. Смешивание информационных и коммерческих запросов на одной странице. Мы уже разбирали, что ключевые фразы различаются по типу потребностей. Если к вам на сайт приходит посетитель, который хочет совершить покупку, а видит в качестве ответа на свой запрос страницу со статьей, как вы думаете будет ли он удовлетворен? Нет! Также думают и поисковые системы, когда ранжируют страницу, а значит про топ по СЧ и ВЧ фразам можно сразу забыть. Поэтому, если вы сомневаетесь в определении типа запроса смотрите выдачу или пользуйтесь инструментами Пиксель Тулс, Just-Magiс для определения коммерческости.

3. Выбор для продвижения очень конкурентных запросов. Позиции для ВЧ ВК фраз на 60-70% зависят от поведенческих факторов, а чтобы их получить нужно попасть в топ. Чем больше претендентов, тем длиннее очередь из желающих и выше требования к сайтам. Все, как в жизни или спорте. Стать чемпионом мира намного сложнее, чем получить тоже звание в своем городе.
Поэтому лучше заходить в тихую, а не перегретую нишу.

Раньше оказаться на вершине было еще сложнее. В топе стояли по принципу кто успел, тот и съел. Лидеры попадали на первые места, а сместить их можно было только, накопив поведенческие факторы. А как их получить, если ты на второй или третьей странице… Яндекс разорвал этот замкнутый круг летом 2015 года, введя алгоритм «многорукий бандит». Суть его, как раз и состоит в том, чтобы рандомно повышать и понижать позиции сайтов, чтобы понять не появились ли более достойные кандидаты для нахождения в топе.

Сколько денег нужно для старта?

Чтобы ответить на этот вопрос посчитаем затраты на необходимый арсенал программ и сервисов, чтобы подготовить и разгруппировать ключевые фразы на 100 статей.

Самый минимум (подойдет для классического варианта):

1. Словоеб — бесплатно
2. Majento кластеризатор — бесплатно
3. На распознавание каптч — 30 руб.
4. Xml-лимиты — 70 руб.
5. Проверка конкуренции запроса по Мутагену — 10 проверок в день бесплатно
6. Если вы никуда не торопитесь и готовы потратить на парсинг 20-30 часов можно обойтись и без прокси.
—————————
Итог — 100 рублей. Если вводить каптчи самому, а xml лимиты получить в обмен на переданные со своего сайта, то реально подготовить ядро вообще бесплатно. Нужно только потратить денек другой на настройку и освоение программ и еще 3-4 дня на ожидание результатов парсинга.

Стандартный набор семантиста (для продвинутого и классического метода):

1. Кей Коллектор — 1900 рублей
2. Кей Ассорт — 1700 рублей
3. Букварикс (бизнес-аккаунт) — 650 руб.
4. Сервис анализа конкурентов keys.so — 1500 руб.
5. 5 прокси — 350 рублей в месяц
6. Антикаптча — примерно 30 руб.
7. Xml-лимиты — около 80 руб.
8. Проверка конкуренции Мутагеном (1 проверка = 30 копеек) – уложимся в 200 руб.
———————-
Итог — 6410 рублей. Можно конечно обойтись без KeyAssort, заменив его Majento кластеризатором и вместо Кей Колектора использовать Словоёб. Тогда хватит и 2810 рублей.

Стоит ли доверять разработку ядра «профи» или лучше разобраться и сделать самому?

Если человек регулярно занимается любимым делом, прокачивается в нем, то следуя логике, его результаты должны быть точно лучше, чем у новичка в этой сфере. А вот с подбором ключевиков все получается в точности наоборот.

Почему в 90% случаев новичок делает лучше профессионала?

Все дело в подходе. Задача семантиста не собрать для вас лучшее ядро, а выполнить свою работу за минимальный срок и чтобы ее качество вас устроило.

Если же вы делаете все сами по тем алгоритмам о которых говорилось раннее — результат будет на порядок выше по двум причинам:

  • Вы разбираетесь в теме. Значит, знаете потребности ваших клиентов или пользователей сайта и сможете на начальном этапе максимально расширить маркерные запросы для парсинга, использовав большое количество синонимов и специфичных слов.
  • Заинтересованы сделать все качественно. Владелец бизнеса или сотрудник компании в которой он работает конечно подойдет к вопросу более ответственно и постарается сделать все на максимум. Чем полнее ядро и больше низкоконкурентных запросов в нем, тем больше удастся собрать целевого трафика, а значит и прибыль при тех же вложениях в контент будет выше.

Как найти, оставшиеся 10%, которые составят ядро лучше вас?

Ищите компании у которых подбор ключевых фраз является ключевой компетенцией. И сразу обговариваете какой хотите результат, как у всех или максимум. Во втором случае, будет раза в 2-3 дороже, но в долгосрочной перспективе многократно окупится. Для тех кто хочет заказать услугу у меня, вся необходимая информация и условия . Качество гарантирую!

Почему так важно полностью прорабатывать семантику

Здесь, как и в любой сфере работает принцип «хорошего и плохого выбора». В чем его суть?
Ежедневно мы сталкиваемся с тем, что выбираем:

  • встречаться с человеком, который вроде бы ничего, но не цепляет или разобравшись в себе построить гармоничные отношения с тем кто нужен;
  • заниматься работой которая не нравится или найти, то к чему лежит душа и сделать это своей профессией;
  • арендовать помещение для магазина в не проходном месте или все-таки подождать пока освободится, подходящий вариант;
  • взять в команду не лучшего менеджера по продажам, а того кто лучше всех себя показал на сегодняшнем собеседовании.

Вроде бы все понятно. А если посмотреть на это с другой стороны, представив каждый выбор, как инвестицию в будущее. Вот тут и начинается самое интересное!

Сэкономили на сем. ядре, 3-5 тысяч. Довольны, как слоны! Но к чему это приводит дальше:

а) для информационных сайтов:

  • Потери по трафику минимум в 1,5 раза при тех же вложениях в контент. Сравнивая разные методы получения ключевых фраз, мы уже выяснили опытным путем, что альтернативный метод позволяет собирать на 51% больше;
  • Проект быстрее проседает в выдаче . Конкурентам легко обойти нас, дав более полный ответ по интенту.

б) для коммерческих проектов:

  • Меньше лидов или повышение их стоимости . Если у нас семантика, как у всех, то мы и продвигаемся по тем же запросам, что и конкуренты. Большое количество предложений при неизменном спросе уменьшает долю каждого из них на рынке;
  • Низкая конверсия. Конкретные запросы лучше конвертируются в продажи. Экономя на сем. ядре, мы теряем самые конверсионные ключи;
  • Тяжелее продвигаться. Много желающих быть в топе — выше требования к каждому из кандидатов.

Желаю, вам всегда делать хороший выбор и инвестировать только в плюс!

P.S. Бонус «Как написать хорошую статью с плохой семантикой», также как и другие лайфхаки по продвижению и заработку в интернете, читайте в моей группе

Добрый день, друзья.

Наверняка вы уже забыли вкус моих статей. Предыдущий материал был довольно давно, хотя и обещал я публиковать статьи чаще, чем обычно.

В последнее время увеличилось количество работы. Создал новый проект (информационный сайт), занимался его версткой, дизайном, собирал семантическое ядро и начал публиковать материал.

Сегодня же будет очень объемный и важный материал для тех, кто ведет свой сайт более 6-7 месяцев (в некоторых тематиках более 1 года) имеет большое количество статей (в среднем 100) и еще не достиг планки минимум в 500-1000 посещений в сутки. Цифры взяты по минимуму.

Важность семантического ядра

В некоторых случаях слабый рост сайта вызван неправильной технической оптимизацией сайта. Больше случаев, когда контент некачественный. Но еще больше случаев, когда тексты пишутся вообще не под запросы - материалы никому не нужны. Но имеется еще и очень огромная часть людей, которая создает сайт, все правильно оптимизирует, пишет качественные тексты, но спустя 5-6 месяцев сайт только начинает набирать первые 20-30 посетителей с поиска. Небольшими темпами через год это уже 100-200 посетителей и цифра в доходах равняется нулю.

И хотя, все сделано правильно, нет никаких ошибок, а тексты порой даже в разы качественней конкурентов, но вот как-то не идет, хоть убей. Начинаем списывать этот косяк на отсутствие ссылок. Конечно ссылки дают буст в развитии, но это не самое главное. И без них можно через 3-4 месяца иметь 1000 посещений на сайте.

Многие скажут, что это все треп и так быстро такие цифры не получишь. Но если мы посмотрим, то не достигаются такие цифры именно на блогах. Информационные же сайты (не блоги), созданные для быстрого заработка и окупаемости вложений, примерно через 3-4 месяца вполне реально выходят на суточную посещаемость в 1000 человек, а через год – 5000-10000. Цифры конечно зависят от конкурентности ниши, ее объема и объема самого сайта на указанный срок. Но, если взять нишу с довольно небольшой конкуренцией и объемом в 300-500 материалов, то такие цифры за указанные сроки вполне достижимы.

Почему же именно блоги не достигают таких быстрых результатов? Главнейшей причиной является отсутствие семантического ядра. Из-за этого статьи пишут всего под один какой-то запрос и практически всегда под очень конкурентный, что не дает странице выбиться в ТОП за короткие сроки.

На блогах, как правило, статьи пишут по подобию конкурентов. Имеем 2- читаемых блога. Видим, что у них посещаемость приличная, начинаем анализировать их карту сайта и публиковать тексты под те же самые запросы, которые уже переписаны сотнями раз и очень конкурентные. В итоге получаем очень качественный контент на сайте, но в поиске он себя чувствует плохо, т.к. требует большого возраста. Бьемся об голову, почему же мой контент лучший, но в ТОП не пробивается?

Именно поэтому я решил написать подробный материал про семантическое ядро сайта, чтобы вы могли собрать себе список запросов и что немало важно – писали тексты под такие группы ключевых слов, которые без покупки ссылок и всего за 2-3 месяца выходили в ТОП (конечно, если контент качественный).

Материал для большинства будет сложный, если ни разу не сталкивались с этим вопросом в его правильном ключе. Но тут главное начать. Как только начинаете действовать, все сразу становится ясно.

Сделаю очень важное замечание. Касается оно тех, кто не готов вкладываться в качество своими кровными заработанными монетами и всегда пытается находить бесплатные лазейки. Семантику бесплатно качественно не соберешь и это известный факт. Поэтому, в данной статье я описываю процесс сбора семантики максимального качества. Никаких бесплатных способов или лазеек именно в этом посте не будет! Обязательно будет новый пост, где расскажу про бесплатные и другие инструменты, с помощью которых вы сможете собрать семантику, но не в полном объеме и без должного качества. Поэтому, если вы не готовы вкладываться в основу основ для вашего сайта, тогда данный материал вам ни к чему!

Несмотря на то, что практически каждый блоггер пишет статью о сем. ядре, могу с уверенностью сказать, что нет нормальных бесплатных пособий в интернете по данной теме. А если и есть, то нет такого, которое бы в полной картине давало понятие, что же должно получится на выходе.

Чаще всего ситуация заканчивается тем, что какой-то новичок пишет материал и рассказывает о сборе семантического ядра, как о применении сервиса для сбора статистика поисковых запросов от Яндекс (wordstat.yandex.ru). В конечном итоге необходимо зайти на этот сайт, вбить запросы по вашей теме, сервис выдаст список фраз, входящих в ваш вбитый ключ – это и есть вся методика.

Но на самом деле семантическое ядро собирается не так. В описанном выше случае у вас попросту не будет семантического ядра. Вы получите какие-то оторванные запросы и все они будут об одном и том же. Например, возьмем мою нишу «сайтостроение».

Какие главные запросы можно по ней без раздумий назвать? Вот лишь некоторые:

  • Как создать сайт;
  • Раскрутка сайта;
  • Создание сайта;
  • Продвижение сайта и т.д.

Запросы получаются об одном и том же. Смысл их сводится лишь к 2м понятиям: создание и раскрутка сайта.

После такой проверки сервис wordstat выдаст очень много поисковых запросов, которые входят в главные запросы и они также будут об одном и том же. Единственное их различие будет в измененных словоформах (добавление некоторых слов и изменение расположения слов в запросе с изменением окончаний).

Конечно, определенное количество текстов написать получится, так как запросы могут быть разные даже в данном варианте. Например:

  • Как создать сайт wordpress;
  • Как создать сайт joomla;
  • Как создать сайт на бесплатном хостинге;
  • Как раскрутить сайт бесплатно;
  • Как раскрутить сайт сервис и т.д.

Очевидно, что под каждый запрос можно выделить отдельный материал. Но такое составление семантического ядра сайта не увенчается успехом, т.к. не будет полноты раскрытия информации на сайте в выбранной нише. Весь контент будет лишь о 2х темах.

Иногда блоггеры-новички описывают процесс составления семантического ядра, как анализ отдельных запросов в сервисе анализа запросов Яндекс Вордстат. Вбиваем какой-то отдельный запрос, относящийся не к теме в целом, а лишь к определенной статье (например, как оптимизировать статью), получаем по нему частотность и вот оно – семантическое ядро собирается. Получается, что таким образом мы должны умственно определить всевозможные темы статей и проанализировать их.

Оба вышеописанные варианты неправильные, т.к. не дают полного семантического ядра и заставляют постоянно возвращаться к его составлению (второй вариант). К тому же вы не будете иметь на руках вектор развития сайта и не сможете в первую очередь публиковать материалы, которые и нужно размещать в числе первых.

Касаемо первого варианта, то покупая когда-то курсы по раскрутке сайтов, я постоянно видел именно такое объяснение сбора ядра запросов для сайта (вбить главные ключ и скопировать все запросы из сервиса в текстовый документ). В итоге меня постоянно мучал вопрос «А что же делать с такими запросами?» На ум приходило следующее:

  • Писать много статей об одном и том же, но употребляя разные ключевые слова;
  • Все эти ключи вписывать в поле description к каждому материалу;
  • Вписать все ключи из сем. ядра в общее поле description ко всему ресурсу.

Ни одно из этих предположений не было верным, как в общем-то и само составленное семантическое ядро сайта.

На окончательном варианте сбора семантического ядра мы должны получит не просто список запросов в количестве 10000, например, а иметь на руках список групп запросов, каждая из которых используется для отдельной статьи.

Группа может содержать от 1 до 20-30 запросов (иногда 50, а то и больше). В таком случае в тексте мы употребляем все эти запросы и страница в перспективе ежедневно будет приносить трафик по всем запросам, если попадет на 1-3 позиции в поиске. Кроме этого, каждая группа должна иметь свою конкуренцию, чтобы знать, имеет ли смысл сейчас публиковать по ней текст или нет. Если конкуренция большая, тогда можем ожидать эффект от страницы только через 1-1.5 года и с проведением регулярных работ по ее продвижению (ссылки, перелинковка и т.д.). Поэтому, лучше на такие тексты делать упор в самую последнюю очередь, даже если они самые трафиковые.

Ответы на возможные вопросы

Вопрос №1. Понятно, что на выходе получаем группу запросов для написания текста, а не всего один ключ. Не будут ли похожи в этом случае ключи между собой и почему бы под каждый запрос не написать отдельный текст?

Вопрос №2. Известно, что каждая страница должна затачиваться лишь под один ключевик, а тут мы получаем целую группу да еще в некоторых случаях с достаточно большим содержанием запросов. Как в таком случае происходит оптимизация самого текста, ведь если ключей, например, 20, тогда употребление хотя бы по одному разу каждого в тексте (даже большого размера) уже похоже на текст для поисковика, а не для людей.

Ответ. Если взять пример запросов из предыдущего вопроса, то затачиваться материал первым делом будет именно под самый частотный (1й) запрос, так как мы большего всего заинтересованы в его выходе на топовые позиции. Данный ключевик мы и считаем главным в этой группе.

Оптимизация под главную ключевую фразу происходит также, как бы это и делалось при написании текста лишь под один ключ (ключ в заголовке title, употребление нужного количества символов в тексте и нужного количества раз самого ключа, если требуется).

Касаемо других ключей, то мы их также вписываем, но не слепо, а на основе анализа конкурентов, который может показать среднее значение количества этих ключей в текстах из ТОПа. Может получиться ситуация, что для большинства ключевиков вы получите нулевые значения, а значит в точном вхождении они не требуют употребления.

Таким образом текст пишется, употребляя всего лишь главный запрос в тексте в прямом. Конечно другие запросы тоже могут быть употреблены, если анализ конкурентов покажет их наличие в текстах из ТОП. Но это никак не 20 ключевиков в тексте в их точном вхождении.

Совсем недавно публиковал материал под группу из 11 ключей. Вроде бы много запросов, но на скриншоте ниже можете видеть, что лишь главный самый частотный ключ имеет употребление точного вхождения – 6 раз. Остальные же ключевые фразы не имеют точных вхождений, но также и разбавочных (на скриншоте не видно, но в ходе анализа конкурентов это показано). Т.е. они вообще не употребляются.

(1я колонка – частотность, 2я – конкурентность, 3я – количество показов)

В большинстве случаев будет похожая ситуация, когда лишь пару ключей нужно будет употребить в точном вхождении, а все остальные либо сильно разбавлять, либо вообще не употреблять даже в разбавочном вхождении. Статья получается читаемой и нет намеков на заточку только под поиск.

Вопрос №3. Вытекает из ответа на Вопрос №2. Если остальные ключи в группе не нужно вообще употреблять, то как тогда они будут получать трафик?

Ответ. Дело в том, что по наличию определенных слов в тексте поисковик может определить о чем текст. Так как в ключевых словах имеются определенные отдельные слова, относящиеся только к этому ключу, то их и нужно употреблять в тексте определенное количество раз на основе того же анализа конкурентов.

Таким образом ключ в точном вхождении не употребится, а вот слова из ключа по отдельности в тексте присутствовать будут и в ранжировании также будут принимать участие. В итоге по этим запросам текст будет также находиться в поиске. Но и количество отдельных слов в этом случае в идеале требуется соблюдать. Помогут конкуренты.

На основные вопросы, которые могли загнать вас в ступор, я ответил. Подробнее, как оптимизировать текст под группы запросов, я напишу в одном из следующим материалов. Там будет и про анализ конкурентов и про написание самого текста под группу ключей.

Ну, а если вопросы еще остались, тогда задавайте свои комментарии. На все отвечу.

А теперь давайте начнем составление семантического ядра сайта.

Очень важно. Весь процесс, как он есть на самом деле я никак не смогу описать в этой статье (придется делать целый вебинар на 2-3 часа или мини-курс), поэтому я постараюсь быть краток, но в то же время информативным и затронуть максимальное количество моментов. Например, я не буду описывать в детальности настройку софта KeyCollector. Все будет урезано, но максимально понятно.

Теперь пройдемся по каждому пункту. Начнем. Сначала подготовка.

Что необходимо для сбора семантического ядра?


Перед тем, как составить семантическое ядро сайта, настроим кейколлектор для правильного сбора статистики и парсинга запросов.

Настройка KeyCollector

Войти в настройки можно, нажав на пиктограмму в верхнем меню софта.

Сначала то, что касается парсинга.

Хочу отметить настройки «Количество потоков» и «Использовать основной IP-адрес». Количество потоков для сбора одного небольшого ядра не нужно большое. Достаточно 2-4 потоков. Чем больше потоков, тем больше нужно прокси-серверов. В идеале 1 прокси на 1 поток. Но можно и 1 прокси на 2 потока (так парсил я).

Касаемо второй настройки, то в случае парсинга в 1-2 потока можно использовать свой основной ИП адрес. Но только,если он динамический, т.к. в случае бана статического ИП вы потеряете доступ к поисковой системе Яндекс. Но все же приоритет всегда отдается использованию прокси-сервера, так как лучше обезопасить себя.

На вкладке настроек парсинга Yandex.Direct важно добавить свои аккаунты Яндекса. Чем их будет больше, тем лучше. Можете их зарегистрировать сами или купить, как я писал ранее. Я же их приобретал, так как мне проще потратить 100 рублей за 30 аккаунтов.

Добавление можно выполнить из буфера, заранее скопировав список аккаунтов в нужном формате, или загрузить из файла.

Аккаунты нужно указывать в формате «логин:пароль» при этом в логине не указывать сам хост (без @yandex.ru). Например, «artem_konovalov:jk8ergvgkhtf».

Также, если мы используем несколько прокси-серверов, лучше закрепить их за определенными аккаунтами. Подозрительно будет, если сначала запрос идет с одного сервера и с одного аккаунта, а при следующем запросе с этого же акаунта яндекса прокси сервер уже другой.

Рядом с аккаунтами имеется столбик «IP прокси». Напротив каждого аккаунта мы и вписываем определенный прокси. Если аккаунтов 20, а прокси-серверов 2, тогда будет 10 аккаунтов с одним прокси и 10 с другим. Если 30 аккаунтов, тогда 15 с один сервером и 15 с другим. Логику, думаю, вы поняли.

Если используем всего один прокси, то нет смысла вписывать его к каждому аккаунту.

Про количество потоков и использование основного ИП адреса я говорил немного ранее.

Следующая вкладка «Сеть», на которой нужно внести прокси-сервера, которые будут использоваться для парсинга.

Вводить прокси нужно в самом низу вкладки. Можно загрузить их из буфера в нужном формате. Я же добавлял по простому. В каждую колонку строки я вписывал данные о сервере, дающиеся вам при его покупке.

Далее настраиваем параметры экспорта. Так как все запросы с их частотностями нам нужно получить в файле на компьютере, то необходимо выставить некоторые параметры экспорта, чтобы не было ничего лишнего в таблице.

В самом низу вкладки (выделил красным) нужно выбрать те данные, которые нужно экспортировать в таблицу:

  • Фраза;
  • Источник;
  • Частотность «!» ;
  • Лучшая форма фразы (можно и не ставить).

Осталось лишь настроить разгадывание антикапчи. Вкладка так и называется - «Антикапча». Выбираем используемый сервис и вводим специальный ключ, который находится в аккаунте сервиса.

Специальный ключ для работы с сервисом предоставляется в письме после регистрации, но также его можно взять из самого аккаунта в пункте «Настройки – настройки аккаунта».

На этом настройки KeyCollector выполнены. Не забываем после проделанных изменений сохранить настройки, нажав на большую кнопку внизу «Сохранить изменения».

Когда все сделано и мы готовы к парсингу, можно приступить к рассмотрению этапов сбора семантического ядра, а потом уже и проделать каждый этап в порядке очереди.

Этапы сбора семантического ядра

Получить качественное и полное семантическое ядро невозможно, используя лишь основные запросы. Также нужно анализировать запросы и материалы конкурентов. Поэтому весь процесс составления ядра состоит из нескольких этапов, которые в свою очередь еще делятся на подэтапы.

  1. Основа;
  2. Анализ конкурентов;
  3. Расширение готового списка с этапов 1-2;
  4. Сбор лучших словоформ к запросам с этапов 1-3.

Этап 1 – основа

В ходе сбора ядра на этом этапе нужно:

  • Сформировать основной список запросов в нише;
  • Расширение этих запросов;
  • Чистка.

Этап 2 – конкуренты

В принципе, этап 1 уже дает некий объем ядра, но не в полной мере, т.к. мы можем что-то упустить. А конкуренты в нашей нише помогут найти упущенные дыры. Вот шаги, необходимые к выполнению:

  • Сбор конкурентов на основе запросов с этапа 1;
  • Парсинг запросов конкурентов (анализ карты сайта, открытая статистика liveinternet, анализ доменов и конкурентов в SpyWords);
  • Чистка.

Этап 3 – расширение

Многие останавливаются уже на первом этапе. Кто-то доходит до 2го, но имеется же еще ряд дополнительных запросов, которые также могут дополнить семантическое ядро.

  • Объединяем запросы с 1-2 этапов;
  • Оставляем 10% самых частотных слов со всего списка, которые содержат минимум 2 слова. Важно, чтобы эти 10% были не более 100 фраз, т.к. большое количество заставит вас сильно закопаться в процесс сбора, чистки и группировки. Нам же нужно собрать ядро в соотношении скорость/качество (минимальные потери качества при максимальной скорости);
  • Выполняем расширение этих запросов с помощью сервиса Rookee (все есть в KeyCollector);
  • Чистим.

Этап 4 – сбор лучших словоформ

Сервис Rookee может для большинства запросов определить их лучшую (правильную) словоформу. Этим также нужно пользоваться. Целью не является определить то слово, которое более правильно, а найти еще некоторые запросы и их формы. Таким образом можно подтянуть еще пул запросов и использовать их при написании текстов.

  • Объединение запросов с первых 3х этапов;
  • Сбор по ним лучших словоформ;
  • Добавление лучших словоформ в список ко всех запросам, объединенным с 1-3 этапов;
  • Чистка;
  • Экспорт готового списка в файл.

Как видите, все не так уж и быстро, а тем более не так просто. Это я обрисовал лишь нормальный план составления ядра, чтобы на выходе получить качественный список ключей и ничего не потерять или потерять по минимуму.

Теперь я предлагаю пройтись по каждому пункту в отдельности и проштудировать все от А до Я. Информации много, но это того стоит, если вам нужно действительно качественное семантическое ядро сайта.

Этап 1 – основа

Сперва мы формируем список основных запросов ниши. Как правило, это 1-3х словные фразы, которые описывают определенный вопрос ниши. В пример предлагаю взять нишу «Медицина», а конкретнее - поднишу сердечных заболеваний.

Какие основные запросы мы можем выделить? Все я конечно писать не буду, но парочку приведу.

  • Заболевания сердца
  • Инфаркт;
  • Ишемическая болезнь сердца;
  • Аритмия;
  • Гипертония;
  • Порок сердца;
  • Стенокардия и т.д.

Простыми словами – это общие названия заболеваний. Таких запросов может быть достаточно много. Чем больше сможете сделать, тем лучше. Но не стоит вписывать для галочки. Бессмысленно выписывать более конкретные фразы от общих, например:

  • Аритмия;
  • Аритмия причины;
  • Лечение аритмии;
  • Аритмия симптомы.

Главной является лишь первая фраза. Остальные нет смысла указывать, т.к. они появятся в списке в ходе расширения с помощью парсинга из левой колонки Яндекс вордстат.

Для поиска общих фраз можно пользоваться, как сайтами конкурентов (карта сайта, названия разделов…), так и опытом специалиста в этой нише.


Парсинг займет некоторое время, в зависимости от количества запросов в нише. Все запросы по умолчанию помещаются в новую группу с названием «Новая группа 1», если память не изменяет. Я обычно переименовываю группы, чтобы понимать, какая за что отвечает. Меню управления группами находится справа от списка запросов.

Функция переименования находится в контекстном меню при нажатии правой кнопки мыши. Это меню понадобится еще для создания других групп на втором, третьем и четвертом этапах.

Поэтому, можете сразу добавить еще 3 группы, нажав на первую пиктограмму «+», чтобы группа создалась в списке сразу после предыдущей. Пока в них не нужно ничего добавлять. Пусть просто будут.

Называл я группы так:

  • Конкуренты – понятно, что в этой группе находится список запросов, который я дособрал у конкурентов;
  • 1-2 – это объединенный список запросов с 1го (основного списка запросов) и 2го (запросы конкурентов) этапов, чтобы оставить из них всего 10% запросов, состоящих минимум из 2х слов и собрать по ним расширения;
  • 1-3 – объединенный список запросов с первого, второго и третьего (расширений) этапов. Также в эту группу мы собираем лучшие словоформы, хотя грамотней было бы собрать их в новую группу (например, лучшие словоформы), а затем после их чистки уже перенести в группу 1-3.

После окончания парсинга из yandex.wordstat вы получаете большой список ключевых фраз, который, как правило (ели ниша небольшая) будет в пределах нескольких тысяч. Много из этого является мусором и запросами-пустышками и придется все чистить. Что-то отсеем автоматически с помощью функционала KeyCollector, а что-то придется лопатить руками и немного посидеть.

Когда запросы все собраны, нужно собрать их точные частотности. Общая частотность собирается при парсинге, а вот точную нужно собирать отдельно.

Для сбора статистики по количеству показов можно пользоваться двумя функциями:

  1. С помощью Яндекс Директ – быстро, статистика собирается пачками, но имеются ограничения (например, фразы больше 7ми слов не прокатят и с символами тоже);
  2. С помощью анализа в Яндекс Вордстате – очень медленно, фразы анализируются по одной, но нет ограничений.

Сначала собрать статистику с помощью Директа, чтобы это было максимально быстро, а для тех фраз, по которым с Директом не получилось определить статистику, используем уже Вордстат. Как правило, таких фраз останется мало и они дособерутся быстро.

Сбор статистика показов с помощью Яндекс.Директ осуществляются при нажатии на соответствующую кнопку и назначении нужных параметров.

После нажатия на кнопку «Получить данные» может быть предупреждение, что Яндекс Директ не включен в настройках. Вам нужно будет согласиться на активацию парсинга с помощью Директа, чтобы начать определять статистику частотности.

Вы сразу увидите, как пачками в колонку «Частотность! » начнут проставляются точные показатели показов по каждой фразе.

Процесс выполнения задачи можно видеть на вкладке «Статистика» в самом низу программы. Когда задача будет выполнена, на вкладке «Журнал событий» вы увидите уведомление о завершении, а также исчезнет полоса прогресса на вкладке «Статистика».

После сбора количества показов с помощью Яндекс Директ мы проверяем, имеются ли фразы, для которых частотность не собралась. Для этого сортируем колонку «Частотность!» (нажимаем на нее), чтобы в верху стали наименьшие значения или наибольшие.

Если вверху будут все нули, тогда все частотности собранные. Если же будут пустые ячейки, тогда для этих фраз показы не определились. Тоже самое касается и при сортировке по убиванию, только тогда придется смотреть результат в самом низу списка запросов.

Начать сбор с помощью яндекс вордстат также можно, нажав на пиктограмму и выбрав необходимый параметр частотности.


После выбора типа частотности вы увидите, как постепенно начнут заполнятся пустые ячейки.

Важно: не стоит пугаться, если после конца процедуры останутся пустые ячейки. Дело в том, что пустыми они будут в случае их точной частотности менее 30. Это мы выставили в настройках парсинга в Keycollector. Эти фразы можно смело выделить (также, как и обычные файлы в проводнике Windows) и удалить. Фразы выделятся голубым цветом, нажимаем правую кнопку мышки и выбираем «Удалить выделенные строки».

Когда вся статистика собрана, можно приступить к чистке, которую очень важно делать на каждом этапе сбора семантического ядра.

Основная задача – убрать фразы не относящие к тематике, убрать фразы со стоп-словами и избавиться от слишком низкочастотных запросов.

Последнее в идеале не нужно выполнять, но, если мы будем в ходе составления сем. ядра использовать фразы даже с минимальной частотностью в 5 показов в месяц, то это увеличит ядро на процентов 50-60 (а может быть и все 80%) и заставить нас сильно закопаться. Нам же нужно получить максимальную скорость при минимальных потерях.

Если хотим получить максимально полное семантическое ядро сайта, но при этом собирать его около месяца (есть опыт совсем отсутствует), тогда берите частотности от 4-5 месячных показов. Но лучше (если новичок) оставлять запросы, которые имеют хотя бы 30 показов в месяц. Да, мы немного потеряем, но это цена за максимальную скорость. А уже в ходе роста проекта можно будет заново получить эти запросы и уже их использовать для написания новых материалов. И это только при условии, что все сем. ядро уже выписано и нет тем для статей.

Отфильтровать запросы по количеству их показов и другим параметрам позволяет все тот же кейколлектор на полном автомате. Изначально я рекомендую сделать именно это, а не удалять мусорные фразы и фразы со стоп-словами, т.к. гораздо проще будет это делать, когда общий объем ядра на этом этапе станет минимальным. Что проще, лопатить 10000 фраз или 2000?

Доступ к фильтрам находится на вкладке «Данные», нажав на кнопку «Редактировать фильтры».

Я рекомендую сначала отобразить все запросы с частотностью менее 30 и перенести их в новую группу, чтобы их не удалять, так как в будущем они могут пригодиться. Если же мы просто применим фильтр для отображения фраз с частотностью более 30, то после очередного запуска KeyCollector придется заново применять этот же фильтр, так как все сбрасывается. Конечно, фильтр можно сохранить, но все равно придется его применять, постоянно возвращаясь ко вкладке «Данные».

Чтобы избавить себя от этих действий, мы в редакторе фильтров добавляем условие, чтобы отображались фразы только с частотностью менее 30.




В будущем выбрать фильтр можно, нажав на стрелку возле пиктограммы дискеты.

Итак, после применения фильтра, в списке запросов останутся только фразы с частотностью менее 30, т.е. 29 и ниже. Также отфильтрованная колонка выделится цветом. В примере ниже вы будете видеть частотность только 30, т.к. я показываю все это на примере уже готово ядра и все почищено. На это внимания не обращайте. У вас все должно быть так, как я описываю в тексте.

Для переноса нужно выделить все фразы в списке. Нажимаем на первую фразу, Листаем в самый низ списка, зажимаем клавишу «Shift» и кликаем один раз на последнюю фразу. Таким образом выделяется все фразы и пометятся голубым фоном.

Появится небольшое окно, где необходимо выбрать именно перемещение.

Теперь можно удалить фильтр с колонки частотности, чтобы остались запросы только с частотностью 30 и выше.


Определенный этап автоматической чистки мы выполнили. Дальше придется повозиться, удалив мусорные фразы.

Сначала предлагаю указать стоп-слова, чтобы удалить все фразы с их наличием. В идеале конечно же это делается сразу на этапе парсинга, чтобы в список они и не попадали, но это не критично, так как очищение от стоп-слов происходит в автоматическом режиме с помощью Кейколлектора.

Основная сложность состоит в составлении списка стоп-слов, т.к. в каждой тематике они разные. Поэтому, делали бы мы чистку от стоп-слов в начале или сейчас – не так важно, так как стоит найти все стоп-слова, а это дело наживное и не такое уж и быстрое.

В интернете вы можете найти общетематические списки, в которые входят самые распространенные слова по типу «реферат, бесплатно, скачать, п…рно, онлайн, картинка и т.д.».

Сначала предлагаю применить общетематический список, чтобы количество фраз еще уменьшилось. На вкладке «Сбор данных» жмете на кнопку «Стоп-слова» и добавляете их списком.

В этом же окне жмем на кнопку «Отметить фразы в таблице», чтобы отметились все фразы, содержащие введенные стоп-слова. Но нужно, чтобы весь список фраз в группе был не отмечен, чтобы после нажатия на кнопку остались отмечены только фразы со стоп-словами. Снять отметки со всех фраз очень просто.


Когда останутся отмеченные только фразы со стоп-словами, мы ух либо удаляем, либо переносим в новую группу. Я в первый раз удалил, но все таки приоритетней создать группу «Со стоп-словами» и переместить в нее все лишние фразы.

После очистки, фраз стало еще меньше. Но и это не все, т.к. все равно мы что-то упустили. Как сами стоп-слова, так и фразы, не относящие к направленности нашего сайта. Это могут быть коммерческие запросы, под которые тексты не напишешь или же напишешь, но они не будут соответствовать ожиданиям пользователя.

Примеры таких запросов могут быть связаны со словом «купить». Наверняка, когда пользователь что-то ищет с этим словом, то он уже хочет попасть на сайт, где это продают. Мы же напишем текст под такую фразу, но посетителю он нужен не будет. Поэтому, такие запросы нам не нужны. Их мы ищем в ручном режиме.

Оставшийся список запросов мы не спеша и внимательно листаем до самого конца в поисках таких фраз и обнаружения новых стоп-слов. Если обнаружили какое-то слово, употребляющееся много раз, то просто добавляем его в уже существующий список стоп-слов и жмем на кнопку «Отметить фразы в таблице». В конце списка, когда по ходу ручной проверки мы отметили все ненужные запросы, удаляем отмеченные фразы и первый этап составления семантического ядра окончен.

Получили определенное семантическое ядро. Оно еще не совсем полное, но уже позволит написать максимально возможную часть текстов.

Осталось лишь добавить к нему еще небольшую часть запросов, которую мы могли упустить. В этом помогут следующие этапы.

Этап 2 конкуренты

В самом начале мы собрали список общих фраз, относящихся к нише. В нашем случае это были:

  • Заболевания сердца
  • Инфаркт;
  • Ишемическая болезнь сердца;
  • Аритмия;
  • Гипертония;
  • Порок сердца;
  • Стенокардия и т.д.

Все они относятся именно к нише «Болезни сердца». По этим фразам необходимо в поиске найти сайты конкурентов именно по данной теме.

Вбиваем каждую из фраз и ищем конкурентов. Важно, чтобы это были не общетематические (в нашем случае медицинские сайты общей направленности, т.е. про все болезни). Нужны именно нишевые проекты. В нашем случае - только про сердце. Ну может быть еще и про сосуды, т.к. сердце связано с сосудистой системой. Мысль, думаю, вы поняли.

Если у нас ниша «Рецепты салатов с мясом», тогда в перспективе только такие сайты и искать. Если их нет, то старайтесь найти сайты только про рецепты, а не в общем про кулинарию, где все обо всем.

Если же общетематический сайт (общемедицинский, женский, про все виды стройки и ремонта, кулинария, спорт), тогда придется очень помучиться, как в плане составления самого семантического ядра, т.к. придется долго и нудно пахать – собирать основной список запросов, долго ждать процесса парсинга, чистить и группировать.

Если на 1й, а иногда и даже на 2й странице, не удается найти узкие тематические сайты конкурентов, тогда попробуйте использовать не основные запросы, которые мы сформировали перед самим парсингом на 1м этапе, а запросы уже из всего списка после парсинга. Например:

  • Как лечить аритмию народными средствами;
  • Симптомы аритмии у женщин и так далее.

Дело в том, что такие запросы (аритмия, болезни сердца, порок сердца…) имеют самую высокую конкурентность и по ним выбиться в ТОП практически нереально. Поэтому, на первых позициях, а может быть и на страницах, вы вполне реально найдете только общетематические порталы обо всем в виду их огромнейшей авторитетности в глазах поисковых систем, возраста и ссылочной массы.

Так что вполне разумно использовать для поиска конкурентов более низкочастотные фразы, состоящие из большего количества слов.

Нужно спарсить их запросы. Можно использовать сервис SpyWords, но функция анализа запросов в нем доступна на платном тарифе, стоимость которого довольно большая. Поэтому для одного ядра нет смысла обновлять тариф на этом сервисе. Если нужно собрать несколько ядер на протяжении месяца, например 5-10, тогда можно купить аккаунт. Но опять же – только при наличии бюджета на тариф PRO.

Также можно использовать статистику Liveinternet, если она открыта для просмотра. Очень часто владельцы делают ее открытой для рекламодателей, но закрывают раздел «поисковые фразы», а именно он нам и нужен. Но все же имеются сайты, когда этот раздел открыт для всех. Очень редко, но имеются.

Самым простым способом является банальный просмотр разделов и карты сайта. Иногда мы можем упустить не только какие-то общеизвестные фразы ниши, но и специфические запросы. На них может и не так много материалов и под них не создашь отдельный раздел, но пару десятков статей они могут прибавить.

Когда мы нашли еще список новых фраз для сбора, запускаем тот же сбор поисковых фраз из левой колонки Яндекс Вордстат, как и на первом этапе. Только запускаем мы его уже, находясь во второй группе «Конкуренты», чтобы запросы добавлялись именно в нее.

  • После парсинга собираем точные частотности поисковых фраз;
  • Задаем фильтр и перемещаем (удаляем) запросы с частотностью менее 30 в отдельную группу;
  • Чистим от мусора (стоп-слова и запросы, не относящиеся к нише).

Итак, получили еще небольшой список запросов и семантическое ядро стало более полным.

Этап 3 – расширение

У нас уже есть группа с названием «1-2». В нее мы копируем фразы из групп «Основной список запросов» и «Конкуренты». Важно именно скопировать, а не переместить, чтобы в предыдущих группах все фразы на всякий случай остались. Так будет безопасней. Для этого в окне переноса фраз нужно выбрать вариант «копирование».

Получили все запросы с 1-2 этапов в одной группе. Теперь нужно оставить в этой группе всего 10% самых частотных запросов от всего количества и которые содержат не менее 2х слов. Также их должно быть не более 100 штук. Уменьшаем, чтобы не закопаться в процесс сбора ядра на месяц.

Сперва применяем фильтр, в котором зададим условие, чтобы показывались минимум 2х словные фразы.


Отмечаем все фразы в оставшемся списке. Нажав на колонку «Частотность!», сортируем фразы по убыванию количества показов, чтобы в верху были самые частотные. Далее выделяем первые 10% из оставшегося числа запросов, снимаем с них отметку (правая кнопка мыши – снять отметку с выделенных строк) и удаляем отмеченные фразы, чтобы остались только эти 10%. Не забываем, что если ваши 10% будут более 100 слов, тогда на 100й строке останавливаемся, больше не нужно.

Теперь проводим расширение с помощью функции кейколлектора. Поможет в этом сервис Rookee.


Параметры сбора указываем, как на скриншоте ниже.

Сервис соберет все расширения. Среди новых фраз могут быть очень длинные ключи, а также символы, поэтому не для всех получится собрать частотность через Яндекс Директ. Придется потом дособрать статистику с помощью кнопки от вордстата.

После получения статистики убираем запросы с месячными показами менее 30 и проводим чистку (стоп-слова, мусор, неподходящие к нише ключи).

Этап закончен. Получили еще список запросов.

Этап 4 – сбор лучших словоформ

Как говорил ранее, целью не является определить такую форму фразы, которая будет более правильной.

В большинстве случаев (исходя из моей практики) сбор лучших словоформ укажет на ту же фразу, что и имеется в списке запросов. Но, без сомнения, будут и такие запросы, к которым будет указана новая словоформа, которой еще нет в семантическом ядре. Это дополнительные ключевые запросы. Этим этапом мы добиваем ядро до максимальной полноты.

При сборе своего ядра данный этап дал еще 107 дополнительных запросов.

Сперва мы копируем ключи в группу «1-3» из групп «Основные запросы», «Конкуренты» и «1-2». Должна получиться сумма всех запросов со всех ранее проделанных этапов. Далее используем сервис Rookee по той же кнопке, что и делали расширение. Только выбираем другую функцию.


Начнется сбор. Фразы будут добавляться в новую колонку «Лучшая форма фразы ».

Лучшая форма будет определена не ко всем фразам, так как сервис Rookee попросту не знает все лучшие формы. Но ля большинства результат будет положительным.

Когда процесс окончен, нужно добавить эти фразы ко всему списку, чтобы они находились в той же колонке «Фраза». Для этого выделяете все фразы в колонке «Лучшая форма фразы», копируете (правая кнопка мыши - копировать), далее жмете на большую зеленую кнопку «Добавить фразы» и вносите их.

Убедиться в том, что фразы появились в общем списке очень просто. Так как при подобном добавлении фраз в таблицу происходит в самый низ, то листаем в самый низ списка и в колонке «Источник» мы должны видеть иконку кнопки добавления.

Фразы, добавленные с помощью расширений, будут помечены иконкой руки.

Так как частотность для лучших словоформ не определена, то нужно это сделать. Аналогично предыдущим этапам выполняем сбор количества показов. Не бойтесь, что сбор осуществляем в той же группе, где находятся остальные запросы. Сбор просто продолжится для тех фраз, которые имеют пустые ячейки.

Если вам будет удобней, тогда изначально вы можете добавить лучшие словоформы не в ту же группу, где они и были найдены, а в новую, чтобы там были только они. И уже в ней собрать статистику, очистить от мусора и так далее. А уже потом оставшиеся нормальные фразы добавить ко всему списку.

Вот и все. Семантическое ядро сайта собрано. Но работы еще осталось немало. Продолжаем.

Перед следующими действиями нужно выгрузить все запросы с необходимыми данными в excel файл на компьютер. Настройки экспорта мы выставили ранее, поэтому можно сразу его и сделать. За это отвечает пиктограмма экспорта в главном меню KeyCollector.

Открыв файл, должны получить 4 колонки:

  1. Фраза;
  2. Источник;
  3. Частотность!;
  4. Лучшая форма фразы.

Это наше итоговое семантическое ядро, содержащее максимальный чистый и необходимый список запросов для написания будущих текстов. В моем случае (узкая ниша) получилось 1848 запросов, что равняется приблизительно 250-300 материалам. Точно сказать не могу - полностью еще на разгруппировал все запросы.

Для немедленного применения это еще сырой вариант, т.к. запросы находятся в хаотичном порядке. Нужно еще раскидать их по группам, чтобы в каждой были ключи к одной статье. Это и является окончательной целью.

Разгруппировка семантического ядра

Этот этап выполняется довольно быстро, хотя и с некоторыми сложностями. Поможет нам сервис http://kg.ppc-panel.ru/ . Имеются и другие варианты, но будем использовать этот в виду того, что с ним мы сделаем все в соотношении качество/скорость. Тут нужна не скорость, а в первую очередь качество.

Очень полезной вещью сервиса является запоминание всех действий в вашем браузере по кукам. Если даже, вы закроете эту страницу или браузер в целом, то все сохранится. Таким образом нет нужды делать все за один раз и бояться, что в один момент может все пропасть. Продолжить можно в любое время. Главное не чистить куки браузера.

Пользование сервисом я покажу на примере нескольких выдуманных запросов.

Переходим на сервис и добавляем все семантическое ядро (все запросы из excel файла), экспортированное ранее. Просто копируем все ключи и вставляем их в окно, как показано на изображении ниже.

Они должны появится в левой колонке «Ключевые слова».

На наличие закрашенных групп в правой стороне не обращайте внимание. Это группы из моего предыдущего ядра.

Смотрим на левую колонку. Имеется добавленный список запросов и строка «Поиск/фильтр». Фильтром мы и будем пользоваться.

Технология очень проста. Когда мы вводим часть какого-то слова или фразы, то сервис в режиме реального времени оставляет в списке запросов только те, что содержат введенное слово/фразу в самом запросе.

Более наглядно смотрите ниже.


Я хотел найти все запросы, относящиеся к аритмии. Ввожу слово «Аритмия» и сервис автоматически оставляет в списке запросов только те, что содержат введенное слово или его часть.

Фразы переместятся в группу, которая будет называться одной из ключевых фраз этой группы.

Получили группу, где лежат все ключевые слова по аритмии. Чтобы увидеть содержимое группы, кликните на нее. Немного позже мы будем эту группу еще разбивать на более мелкие группы, так как с аритмией есть очень много ключей и все они под разные статьи.

Таким образом на начальном этапе группировки нужно создать большие группы, которые объединяют большое количество ключевых слов из одного вопроса ниши.

Если взять в пример ту же тематику сердечных болезней, тогда сначала я буду создавать группу «аритмия», потом «порок сердца», затем «инфаркт» и так далее пока не будет групп по каждой из болезни.

Таких групп, как правило, будет практически столько же, сколько и основных фраз ниши, сгенерированных на 1м этапе сбора ядра. Но в любом случае, их должно быть больше, так как имеются еще фразы с 2-4го этапов.

Некоторые группы могут содержать вообще 1-2 ключа. Это может быть связано, например с очень редким заболеванием и про него никто не знает или никто не ищет. Поэтому и запросов нет.

В общем, когда основные группы созданы, необходимо их разбить на более мелкие группы, которые и будут использованы для написания отдельных статей.

Внутри группы напротив каждой ключевой фразы есть крестик, нажав на который, фраза удаляется из группы и обратно попадает в неразгруппированный список ключевых слов.

Таким образом и происходит дальнейшая группировка. Покажу на примере.

На изображении вы можете видеть, что имеются ключевые фразы, связанные с лечением аритмии. Если мы хотим их определить в отдельную группу для отдельной статьи, тогда удалям их из группы.


Они появятся в списке левой колонки.

Если в левой колонке еще присутствуют фразы, тогда, чтобы найти удаленные ключи из группы, придется применить фильтр (воспользоваться поиском). Если же список полностью находится по группам, тогда там будут только удаленные запросы. Мы их отмечаем и жмем на «Создать группу».


В колонке «Группы» появится еще одна.

Таким образом мы распределяем все ключи по темам и под каждую группу в конечно итоге пишется отдельная статья.

Единственная сложность сего процесса заключается в анализе необходимости разгруппировки некоторых ключевиков. Дело в том, что имеются ключи, которые по своей сути разные, но они не требуют написания отдельных текстов, а пишется подробный материал по многих вопросам.

Это ярко выражено именно в медицинской тематике. Если взять пример с аритмией, то нет смысла делать ключи «аритмия причины» и «аритмия симптомы». Ключи про лечение аритмии еще под вопросом.

Узнается это после анализа поисковой выдачи. Заходим в поиск Яндекса и вбиваем анализируемый ключ. Если видим, что в ТОПе находятся статьи, посвященные только симптомам аритмии, тогда данный ключ выделяем в отдельную группу. Но, если же тексты в ТОПе раскрывают все вопросы (лечение, причины, симптомы, диагностика и так далее), тогда разгруппировка в данном случае не нужна. Все эти темы раскрываем в рамках одной статьи.

Если в Яндексе находятся именно такие тексты на верхушке выдачи, тогда это знак, что разгруппировку делать не стоит.

Тоже самое можно привести на примере ключевой фразы «причины выпадения волос». Могут быть подключи «причины выпадения волос у мужчин» и «…у женщин». Очевидно, что под каждый ключ можно написать отдельный текст, если исходить из логики. Но о чем скажет Яндекс?

Вбиваем каждый ключ и смотрим, какие же тексты там присутствуют. Под каждый ключ там отдельные подробные тексты, тогда ключи разгруппированием. Если же в ТОПе по обеим запросам находятся общие материалы по ключу «причины выпадения волос», внутри которого раскрыты вопросы касаемо женщин и мужчин, тогда оставляем ключи в рамках одной группы и публикуем один материал, где раскрываются темы по всем ключам.

Это важно, так как поисковая система не зря определяет тексты в ТОП. Если на первой странице находятся исключительно подробные тексты по определенному вопросу, тогда велика вероятность, что разбив большую тему на подтемы и написав по каждой материал, вы не попадаете в ТОП. А так один материал имеет все шансы получить хорошие позиции по всем запросам и собирать по ним хороший трафик.

В медицинских тематиках этому моменту нужно уделять много внимания, что значительно усложняет и замедляет процесс разгруппировки.

В самом низу колонки «Группы» имеется кнопка «Выгрузить». Жмем на нее и получаем новую колонку с текстовым полем, содержащим все группы, разделенные между собой строчным отступом.

Если не все ключи находятся в группах, то в поле «Выгрузка» пробелов между ними не будет. Они появляются только при полностью выполненной разгруппировке.

Выделяем все слова (комбинация клавиш Ctrl+A), копируем их и вставляем в новый excel файл.

Ни в коем случае не жмем на кнопку "Очистить все", так как удалится абсолютно все, что вы проделали.

Этап разгруппировки окончен. Теперь можно смело писать по тексту под каждую группу.

Но, для максимальной эффективности, если бюджет вам не позволяет выписать все сем. ядро за пару дней, а имеется лишь строго ограниченная возможность для регулярной публикации небольшого количества текстов (10-30 в месяц, к примеру), тогда стоит определить конкуренцию всех групп. Это важно, так как группы с наименьшей конкуренцией дают результат в первые 2-3-4 месяца после написания без каких-либо ссылок. Достаточно лишь написать качественный конкурентноспособный текст и правильно его оптимизировать. Дальше за вас все сделает время.

Определение конкуренции групп

Сразу хочу отметить, что низко-конкурентный запрос или группа запросов не означает, что они являются сильно микро низкочастотными. Вся прелесть и есть в том, что достаточно приличное количество запросов, которые имеют низкую конкуренцию, но при этом обладают высокой частотностью, что сразу же дает выход такой статье в ТОП и привлечение солидного трафика на один документ.

Например, вполне реальная картина, когда группа запросов имеет конкуренцию 2-5, а частотность порядка 300 показов в месяц. Написав всего 10 таких текстов, после выхода их в ТОП, мы будем получать 100 посетителей ежедневно минимум. И это всего 10 текстов. 50 статей – 500 посещений и эти цифры взяты и потолка, так как это берется в учет лишь трафик по точным запросам в группе. Но привлекаться же трафик будет еще и по другим хвостам запросов., а не только по тем, что находятся в группах.

Вот почему так важно определить конкуренцию. Иногда вы можете видеть ситуацию, когда на сайте 20-30 текстов, а уже 1000 посещений. И причем сайт молодой и ссылок нет. Теперь вы знаете, с чем это связано.

Конкуренцию запросов можно определять через тот же KeyCollector абсолютно бесплатно. Это очень удобно, но в идеале данный вариант не являются правильным, так как формула определения конкурентности постоянно меняется с изменением алгоритмов поисковых систем.

Лучше определять конкуренцию с помощью сервиса http://mutagen.ru/ . Он платный, но более максимально приближенный к реальным показателям.

100 запросов стоят всего 30 рублей. Если у вас ядро на 2000 запросов, тогда вся проверка обойдется в 600 рублей. В сутки дается 20 бесплатных проверок (только тем, кто пополнил баланс на любую сумму). Можете каждый день оценивать по 20 фраз, пока не определите конкурентность всего ядра. Но это очень долго и глупо.

Поэтому, я пользуюсь именно мутагеном и ни имею к нему никаких претензий. Иногда бывают проблемы, связанные со скоростью обработки, но это не так критично, так как даже закрыв страницу сервиса, проверка продолжается в фоновом режиме.

Сам анализ сделать очень просто. Регистрируемся на сайте. Пополняем баланс любым удобным способом и по главному адресу (mutagen.ru) доступна проверка. В поле водим фразу и она сразу же начинает оцениваться.

Видим, что по проверяемому запросу конкурентность оказалась более 25. Это очень высокий показатель и может равняться любому числу. Сервис не отображает его реальным, так как это не имеет смысла в виду того, что такие конкурентные запросы практически нереально продвинуть.

Нормальный уровень конкуренции считается до 5. Именно такие запросы легко продвигаются без лишних телодвижений. Чуть более высокие показатели тоже вполне приемлемы, но запросы со значениями более 5 (например, 6-10) стоит использовать после того, как уже написали тексты под минимальную конкурентность. Важен максимально быстрый текста в ТОП.

Также во время оценки определяется стоимость клика в Яндекс.Директ. По ней можно оценить ваш будущий заработок. Во внимание берем гарантированные показы, значение которых можем смело делить на 3. В нашем случае можно сказать, что один клик по рекламе Яндекс директа нам будет приносить 1 рубль.

Сервис определяет и количество показов, но на них мы не смотрим, так как определяются частотность не вида "!запрос", а только "запрос". Показатель получается не точным.

Такой вариант анализа подойдет, если мы хотим проанализировать отдельный запрос. Если нужна массовая проверка ключевых фраз, тогда на главной странице сверху поля ввода ключа имеется специальная ссылка.


На следующей странице создаем новое задание и добавляем список ключей из семантического ядра. Берем их из того файла, где ключи уже разгруппированы.

Если на балансе достаточно средств для анализа, проверка сразу начнется. Продолжительность проверки зависит от количества ключей и может занять некоторое время. 2000 фраз я анализировал порядка 1го часа, когда во второй раз проверка всего 30 ключей заняла аж несколько часов.

Сразу после запуска проверки вы увидите задание в списке, где будет колонка "Статус". По ней вы и поймете, готово ли задание или нет.

Кроме этого после выполнения задания вы сразу сможете скачать файл со список всех фраз и уровнем конкуренции для каждой. Фразы будут все в таком порядке, как они и были разгруппированы. Единственное, будут удалены пробелы между группами, но это не страшно, т.к.все будет интуитивно понятно, ведь каждая группа содержит ключи на другую тему.

Кроме этого, если задание еще не выполнилось, вы можете зайти внутрь самого задания и посмотреть результаты конкуренции для уже выполненных запросов. Просто нажмите на название задания.

В пример покажу результат проверки группы запросов для семантического ядра. Собственно, эта та группа, под которую писалась данная статья.

Видим, что практически все запросы имеют максимальную конкуренцию 25 или же ближе к ней. Это значит, что по этим запросам, мне либо вообще не видать первых позиций или же не видать их очень долго. Такой материал бы на новом сайте я вообще не писал.

Сейчас же я его опубликовал только для создания качественного контента на блог. За цель конечно ставлю вывести в топ, но это уже позже. Если на первую страницу хотя бы лишь по главному запросу мануал и выйдет, тогда я уже могу рассчитывать не солидный трафик только на эту страницу.

Последним шагом осталось создать окончательный файл, на который мы и будем смотреть в процессе наполнения сайта. Семантическое ядро сайта то уже собрано, но вот управляться с ним не совсем удобно пока.

Создание финального файла со всеми данными

Нам снова понадобится KeyCollector, а также последний файл excel, который мы получили с сервиса mutagen.

Открываем ранее полученный файл и видим примерно следующее.

Из файла нам потребуются только 2 колонки:

  1. ключ;
  2. конкуренция.

Можно просто удалить все остальное содержимое из этого файла, чтобы остались только необходимые данные или же создать совсем новый файл, сделать там красивую строку заголовка с наименованием колонок, выделив ее, например, зеленым цветом, и в каждую колонку скопировать соответствующие данные.

Далее копируем все семантическое ядро из этого документа и снова добавляем его в кейколлектор. Потребуется заново собрать частотности. Это нужно, чтобы собрались частотности в таком порядке, как и расположены ключевые фразы. Ранее мы их собирали, чтобы отсеять мусор, а сейчас для создания финального файла. Фразы конечно же добавляем в новую группу.

Когда частотности собраны, мы экспортируем файл из весь столбик с частотностью копируем в финальный файл, где будут 3 колонки:

  1. ключевая фраза;
  2. конкурентность;
  3. частотность.

Теперь осталось немного посидеть и для каждой группы посчитать:

  • Средний показатель частотности группы - важен не показатель каждого ключа, а средний показатель группы. Считается, как обычное среднеарифметическое (в excel - функция "СРЗНАЧ");
  • Общую частотность группы поделить на 3, чтобы привести возможный трафик к реальным цифрам.

Чтобы вам не мучиться с освоением расчетов в excel, я подготовил для вас файл, куда вам просто в нужные колонки нужно внести данные и все будет посчитано на полном автомате. Каждую группу нужно рассчитывать в отдельности.

Внутри будет простой пример расчета.

Как видите, все очень просто. Из финального файла просто копируете все фразы группы целиком со всеми показателями и вставляете в этот файл на место предыдущих фраз с их данными. И автоматически произойдет расчет.

Важно, чтобы колонки в финальном файле и в моем были именно в таком порядке. Сначала фраза, потом частотность, а уже потом только конкуренция. Иначе, насчитаете ерунду.

Далее придется немного посидеть, чтобы создать еще один файл или лист (рекомендую) внутри файла со всеми данными о каждой группе. Этот лист будет содержать не все фразы, а лишь главную фразу группы (по ней мы будем определять, что за группа) и посчитанные значения группы из моего файла. Это своего рода окончательный файл с данными о каждой группе с посчитанными значениями. На него я и смотрю, когда выбирают тексты для публикации.

Получится все те же 3 колонки, только без каких-либо подсчетов.

В первую мы вставляем главную фразу группы. В принципе, можно любую. Она нужна лишь для того, чтобы ее скопировать и через поиск найти местоположение всех ключей группы, которые находятся на другом листе.

Во вторую мы копируем посчитанное значение частотности из моего файла, а в третью - среднее значение конкуренции группы. Берем мы эти числа из строки "Результат".

В итоге получится следующее.

Это 1й лист. На втором листе находится все содержимое финального файла, т.е. все фразы с показателями их частотности и конкуренции.

Теперь мы смотрим на 1й лист. Выбираем максимально "рентабельную" группу ключей. Копируем фразу из 1й колонки и находим ее с помощью поиска (Ctrl+F) во втором листе, где рядом с ней будут находиться остальные фразы группы.

Вот и все. Мануал подошел к концу. На первый взгляд все очень сложно, но на самом деле - достаточно просто. Как уже говорил в самом начале статьи - стоит лишь начать делать. В будущем я планирую сделать видео-мануал по этой инструкции.

Ну а на этой ноте я заканчиваю инструкцию.

Все, друзья. Буду какие-то пожелания, вопросы - жду в комментариях. До связи.

P. S. Рекорд по объему контента. В Word получилось более 50 листов мелким шрифтом. Можно было не статью публиковать, а создать книгу.

С уважением, Константин Хмелев!

В данный момент для поискового продвижения максимально важную роль играют такие факторы как контент и структура. Однако, каким образом понять о чем писать текст, какие разделы и страницы создать на сайте? В дополнении к этому вам нужно точно узнать чем именно интересуется целевой посетитель вашего ресурса. Чтобы ответить на все эти вопросы нужно собрать семантическое ядро.

Семантическое ядро — список слов или фраз, полностью отражающих тематику вашего сайта.

В статье я расскажу как его подобрать, почистить и разбить на структуру. Результатом будет являться законченная структура с запросами кластеризованными по страницам.

Вот пример ядра запросов разбитого на структуру:


Под кластеризацией я понимаю разбивку ваших поисковых запросов на отдельные страницы. Данный способ будет актуален как для продвижения в ПС Яндекса, так и Гугла. В статье я опишу совершенно бесплатный способ создания семантического ядра, однако буду показывать и варианты с различными платными сервисами.

Прочитав статью, вы научитесь

  • Выбирать правильные запросы под вашу тематику
  • Собирать максимально полное ядро фраз
  • Чистить от неинтересных запросов
  • Группировать и создавать структуру

Собрав семантическое ядро вы сможете

  • Создать осмысленную структуру на сайте
  • Создать многоуровневое меню
  • Наполнять страницы текстами и писать на них метаописания и title
  • Собирать позиции вашего сайта по запросам из поисковых систем

Сбор и кластеризация семантического ядра

Правильное составление для Google и Яндекс начинается с определения основных ключевых фраз вашей тематики. Для примера, я буду демонстрировать его составление на выдуманном интернет-магазине одежды. Есть три пути по сбору семантического ядра:

  1. Ручной. Используя сервис Яндекс Wordstat , вы вводите ваши ключевые слова и руками выбираете необходимые вам фразы. Данный способ достаточно быстрый, если вам нужно собрать ключи на одну страницу, однако, есть два минуса.
    • Точность метода «хромает». Вы всегда можете упустить какие-либо важные слова, если будете использовать этот метод.
    • Вы не сможете собрать семантическое ядро на большой интернет-магазин, хотя для упрощения можно использовать плагин Yandex Wordstat Assistant — проблему это не решит.
  2. Полуавтоматический. В этом методе я предполагаю использование программы для сбора ядра и дальнейшее ручная разбивка на разделы, подразделы, страницы и т.п. Данный метод составления и кластеризации семантического ядра по моему мнению наиболее эффективный т.к. имеет ряд плюсов:
    • Максимальный охват всей тематики.
    • Качественная разбивка
  3. Автоматический. В наше время существует несколько сервисов, которые предлагают полностью автоматический сбор ядра либо же кластеризацию ваших запросов. Полностью автоматический вариант — не рекомендую к использованию, т.к. качество сбора и кластеризации семантического ядра на данный момент довольно низкая. Автоматическая кластеризация запросов — набирает популярность и имеет место быть, но вам необходимо все-равно будет объединять какие-то страницы руками, т.к. система не дает идеального готового решения. И по моему мнению вы просто запутаетесь и не сможете погрузиться в проект.

Для составления и кластеризации полноценного правильного семантического ядра на любой проект в 90% случаев я использую полуавтоматический метод.

Итак, чтобы нам нужно выполнить следующие шаги:

  1. Подбор запросов для тематики
  2. Сбор ядра по запросов
  3. Чистка от нецелевых запросов
  4. Кластеризация (разбиваем фразы на структуру)

Пример подбора семантического ядра и группировки на структуру я показывал выше. Напоминаю, что у нас интернет-магазин одежды, начнем же разбирать 1 пункт.

1. Подбор фраз для вашей тематики

На данном этапе нам понадобиться инструмент Яндекс Вордстат , ваши конкуренты и логика. В этом шаге важно собрать список фраз, которые являются тематическими высокочастотными запросами.

Как подбирать запросы для сбора семантики с Yandex Wordstat

Заходите на сервис, выбираете нужный вам город(а)/регион(ы), вбиваете самые «жирные» по вашему мнению запросы и смотрите на правую колонку. Там вы найдете нужные вам тематические слова, как на другие разделы, так и частотные синонимы к вписанной фразе.

Как подбирать запросы перед составлением семантического ядра с помощью конкурентов

Впишите в поисковой системе самый популярные запросы и выберите один из самых популярных сайтов, многие из которых вы, скорее всего, и так знаете.

Обратите внимание на основные разделы и сохраняйте себе необходимые вам фразы.

На данном этапе важно сделать правильно: максимально охватить всевозможные слова из вашей тематики и ничего не упустить, тогда ваше семантическое ядро будет максимально полным.

Применимо к нашему примеру, нам нужно составить список из следующие фраз/ключевых слов:

  • Одежда
  • Обувь
  • Сапоги
  • Платья
  • Футболки
  • Нижнее белье
  • Шорты

Какие фразы вписывать бессмысленно : женская одежда, купить обувь, платье на выпускной и т.п. Почему? — Данные фразы являются «хвостами» запросов «одежда», «обувь», «платья» и будут добавлены в семантическое ядро автоматически на 2 этапе сбора. Т.е. вы можете их добавлять, но это будет бессмысленной двойной работой.

Какие ключи вписывать нужно? «полусапоги», «сапожки» не одно и тоже, что и «сапоги». Важна именно словоформа, а не то однокоренные это слова или нет.

У кого-то список ключевых фраз будет длинный, а у кого он состоит из одного слова — не пугайтесь. Например, интернет-магазину дверей для составления семантического ядра вполне возможно достаточно слова «двери».

И так, в конце данного шага у нас должен быть подобный список.

2. Сбор запросов для семантического ядра

Для правильного полноценного сбора нам необходимо программа. Я буду показывать пример одновременно на двух программах:

  • На платной — KeyCollector. Для тех у кого есть, либо кто хочет купить.
  • На бесплатной — Slovoeb. Бесплатная программа для тех, кто не готов тратиться.

Открываем программу

Создаем новый проект и назовем его, например, Mysite

Теперь для дальнейшего сбора семантического ядра нам нужно сделать несколько вещей:

Создать новый аккаунт на Яндекс почте (старый не рекомендуется использовать по причине того, что его могут забанить за множество запросов). Итак, вы создали аккаунт, например [email protected] с паролем super2018. Теперь вам нужно указать этот аккаунт в настройках как ivan.ivanov:super2018 и нажать внизу кнопку «сохранить изменения». Подробнее — на скриншотах.

Выбираем регион для составления семантического ядра. Нужно выбрать только те регионы, в которых вы собираетесь продвигаться и нажать сохранить. От этого будет зависеть частотность запросов и попадут ли они в сбор в принципе.

Все настройки завершены, осталось добавить наш заготовленный на первом шаге список ключевых фраз и нажать кнопку «начать сбор» семантического ядра.

Процесс полностью автоматический и достаточно долгий. Можете пока сделать кофе, а если тематика широкая, например, подобно той, что мы собираем — то это на несколько часов 😉

Как только все фразы соберутся вы увидите нечто подобное:

И на этом этап закончен — приступаем к следующему шагу

3. Чистка семантического ядра

Вначале нам нужно удалить запросы, которые нам не интересны (нецелевые):

  • Связанные с другим брендом, например, «глория джинс», «экко»
  • Информационные запросы, например, «ношу сапоги», «размер джинсов»
  • Схожие по тематике, но не относящиеся к вашему бизнесу, например, «б у одежда», «одежда оптом»
  • Запросы, никак не связанные с тематикой, например, «симс платья», «кот в сапогах» (таких запросов после подбора семантическом ядре бывает достаточно много)
  • Запросы из других регионов, метро, округов, улиц (неважно по какому региону вы собирали запросы — другой регион все-равно попадается)

Чистку нужно проводить вручную следующим образом:

Вводим слово, нажимаем «Enter», если в нашем созданном семантическом ядре находит именно те фразы что нам нужно, выделяем найденное и нажимаем удалить.

Рекомендую вводить слово не целиком, а используя конструкцию без предлогов и окончаний, т.е. если мы напишем слово «глори», то найдет фразы «купить в глория джинс» и «купить в глории джинс». При написании «глория» — «глории» не было бы найдено.

Таким образом вам нужно пройти по всем пунктам и удалить из семантического ядра ненужные вам запросы. Это может занять значительное время, и, возможно, получится так, что вы удалите большую часть собранных запросов, но результатом будет полноценный чистый и правильный список всевозможных продвигаемых запросов для вашего сайта.

Выгрузите теперь все ваши запросы в excel

Также вы можете массово удалить из семантики нецелевые запросы, при условии, что у вас есть список. Можно это сделать при помощи стоп-слов и это легко сделать для типовой группы слов с городами, метро, улицами. Список таких слов, которыми я пользуюсь вы сможете скачать внизу страницы.

4. Кластеризация семантического ядра

Это самая важная и интересная часть — необходимо разделить наши запросы на страницы и разделы, которые в совокупности создадут структуру вашего сайта. Немного теории — чем руководствоваться при разделении запросов:

  • Конкуренты . Вы можете обратить внимание на то, как кластеризовано семантическое ядро у ваших конкурентов из ТОПа и поступать аналогичным образом, по крайней мере с основными разделами. А также смотреть, какие страницы находятся в выдаче по низкочастотным запросам. Например, если вы не уверены «делать или нет» отдельный раздел для запроса «красные кожаные юбки», то вбейте фразу в поисковую систему и посмотрите выдачу. Если в выдаче содержаться ресурсы, где есть такие разделы, значит, имеет смысл сделать отдельную страницу.
  • Логика . Всю группировку семантического ядра делайте используя логику: структура должна быть понятна и представлять у вас в голове структурированное дерево страниц с категориями и подкатегориями.

И еще пара советов:

  • На страницу не рекомендуется ставить менее 3 запросов.
  • Не делайте слишком много уровней вложенности, старайтесь делать так, чтобы их было 3-4 (сайт.ру/категория/подкатегория/под-подкатегория)
  • Не делайте длинные URL, если у вас много уровней вложенности при кластеризации семантического ядра, старайтесь сокращать url высоких по иерархии категорий, т.е. вместо «vash-site.ru/zhenskaya-odezhda/palto-dlya-zhenshin/krasnoe-palto» делайте «vash-site.ru/zhenshinam/palto/krasnoe»

Теперь к практике

Кластеризация ядра на примере

Для начала разнесем все запросы по основным категориям. Посмотрев по логике конкурентов — основными категориями для магазина одежды будут являться: мужская одежда, женская одежда, детская одежда, а также куча других категорий, которые не привязаны к полу/возрасту, такие как просто «обувь», «верхняя одежда».

Группируем семантическое ядро это при помощи Excel. Открываем наш файл и действуем:

  1. Разбиваем на основные разделы
  2. Берем один раздел и разбиваем его на подразделы

Я покажу на примере одного раздела — мужская одежда и его подраздела. Для того, чтобы отделить одни ключи от других нужно выделить весь лист и нажать условное форматирование->правила выделения ячеек->текст содержит

Теперь в открывшемся окне пишем «муж» и нажимаем энтер.

Теперь все наши ключи по мужской одежде выделены. Достаточно воспользоваться фильтром, чтобы отделить выделенные ключи от всего остального нашего собранного семантического ядра.

Итак включим фильтр: нужно выделить столбик с запросами и нажать сортировка и фильтр->фильтр

И теперь отсортируем

Создайте отдельный лист. Вырезайте выделенные строки и вставляйте их туда. Этим способом вам нужно будет в дальнейшем и разбивать ядро.

Измените название этого листа на «Мужская одежда», лист, где все остальное семантическое ядро назовите «Все запросы». Затем создайте еще один лист, назовите его «Структура» и поставьте его самым первым. На странице со структурой создавайте дерево. У вас должно получится так:

Теперь нам нужно разделить большой раздел мужской одежды на подразделы и под-подразделы.

Для удобства использования и переходов по вашему кластеризованному семантическому ядру поставьте ссылки со структуры на соответствующие листы. Для этого кликните правой кнопкой мыши на нужный пункт в структуре и делайте как на скриншоте.

И теперь методично руками нужно разделять запросы, попутно удаляя то, что, возможно, не удалось заметить и удалить на этапе очистки ядра. В конечном счете благодаря кластеризации семантического ядра у вас должна получится структура похожая на вот эту:

Итак. Что мы научились делать:

  • Выбирать нужные нам запросы для сбора семантического ядра
  • Собирать все-возможные фразы для этих запросов
  • Чистить от «мусора»
  • Кластеризовать и создавать структуру

Что благодаря созданию такого кластеризованного семантического ядра вы можете делать дальше:

  • Создавать структуру на сайте
  • Создавать меню
  • Писать тексты, метаописания, тайтлы
  • Собирать позиции для отслеживания динамики по запросам

Теперь немного о программах и сервисах

Программы для сбора семантического ядра

Здесь я опишу не только программы, но и плагины и онлайн сервисы, которые использую

  • Yandex Wordstat Assistant — плагин, благодаря которому, удобно подбирать запросы из вордстата. Отлично подходит для быстрого составления ядра на маленький сайт или на 1 страницу.
  • Кейколлектор (словоеб — бесплатная версия) — полноценная программа для кластеризации и создания семантического ядра. Пользуется большой популярностью. Огромное количество функционала помимо основного направления: Подбор ключей с кучи других систем, возможность автокластеризации, сбор позиций в Яндексе и Гугле и многое другое.
  • Just-magic — многофункциональный онлайн-сервис для составления ядра, авторазбивки, проверка качества текстов и также другие функции. Сервис условно-бесплатный, для полноценной работы нужно платить абонентскую плату.

Спасибо за то, что прочитали статью. Благодаря данному пошаговому мануалу вы сможете составить семантическое ядро вашего сайта для продвижения в Яндексе и Гугле. Если у вас остались какие-либо вопросы — задавайте в комментариях. Ниже — бонусы.

03.08.2018 Время прочтения: 5 минут

Что такое семантическое ядро?

Семантическое ядро – это набор поисковых фраз и слов, по которым осуществляется продвижение сайта. Эти поисковые слова и фразы помогают роботам определить тематику страницы или всего сервиса, то есть узнать, чем занимается компания.

В русском языке семантикой называется раздел науки о языке, занимающийся изучением смыслового наполнения лексических единиц языка. Применительно к поисковой оптимизации это означает, что семантическое ядро – это смысловое наполнение ресурса. Оно помогает определиться, какую информацию доносить до пользователей и в каком ключе. Поэтому семантика – это фундамент, основа всего SEO .

Для чего нужно семантическое ядро сайта и как его использовать?

  • Правильное семантическое ядро необходимо, чтобы точно рассчитать стоимость продвижения.
  • Семантика – это вектор построения внутренней seo-оптимизации : подбираются наиболее релевантные запросы для каждой услуги или товара, чтобы пользователи и поисковые роботы лучше их находили.
  • На его основе создаются структура сайта и тексты для тематических страниц.
  • Ключи из семантики используются для написания сниппетов (кратких описаний страницы).

Вот семантическое ядро – пример его составления в компании сайт для сайта строительной компании:

Оптимизатор собирает семантику, разбирает ее по логическим блокам, выясняет число их показов и на основе стоимости запросов в топе Яндекса и Google рассчитывает общую стоимость продвижения.

Разумеется, при подборе семантического ядра учитывается специфика работы компании: например, если бы компания не проектировала и не строила дома из клееного бруса, то соответствующие запросы мы бы удалили и не использовали в дальнейшем. Поэтому обязательный этап работы с семантикой – согласование его с заказчиком: лучше него никто не знает особенности работы компании.

Виды ключевых слов

Есть несколько параметров, по которым классифицируются ключевые запросы.

  1. По частотности
    • высокочастотные – слова и фразы с частотой от 1000 показов в месяц;
    • среднечастотные – до 1000 показов в месяц;
    • низкочастотные – до 100 показов.
  2. Сбор частотности по ключевым словам помогает узнать, что чаще всего запрашивают пользователи. Но высокочастотный запрос – необязательно запрос с высокой конкурентностью, и составление семантики с высокой частотностью и низкой конкурентностью – один из главных аспектов в работе со смысловым ядром.

  3. По типу:
    • геозависимые и негеозависимые – привязанные к региону продвижения и непривязанные;
    • информационные – по ним пользователь получает какую-то информацию. Ключи такого типа обычно используются в статьях – например, обзорах или полезных советах;
    • брендовые – содержат в себе название продвигаемого бренда;
    • транзакционные – подразумевающие действие от пользователя (купить, скачать, заказать) и так далее.
  4. Другие виды – те, которые сложно отнести к какому-либо типу: допустим, ключ «профилированный брус». Вбивая такой запрос в поисковик, пользователь может подразумевать что угодно: покупку бруса, свойства, сравнения с другими материалами и прочее.

    Из опыта работы нашей компании можем сказать, что по таким запросам продвигать любой сайт очень сложно – как правило, это высокочастотные и высококонкурентные, а это не только сложно в оптимизации, но и дорого для клиента.

Как собрать семантическое ядро для сайта?

  • Путем анализа сайтов-конкурентов (в SEMrush, SerpStat можно посмотреть семантическое ядро конкурентов):

Процесс составления семантического ядра

Собранные запросы – это еще не семантическое ядро, тут надо еще зерна от плевел отделить, чтобы все запросы были релевантны услугам клиента.

Чтобы составить семантическое ядро, запросы нужно кластеризовать (разбить на блоки по логике оказания услуги). Делать это можно с помощью программ (например, KeyAssort или TopSite) – особенно, если семантика объемная. Или вручную оценивать и перебирать весь список, удалять неподходящие запросы.

Затем отправить клиенту и уточнить, есть ли ошибки.

Готовое семантическое ядро – дорожка из желтого кирпича к контент-плану, к статьям в блоге, текстам для карточек товаров, новостям компании и так далее. Это таблица с потребностями аудитории, которые вы можете удовлетворить, используя свой сайт.

  • Распределите ключи по страницам.
  • Используйте ключевые запросы в метатегах , <description>, <h> (особенно в заголовке первого уровня H1).</li> <li>Вставьте ключи в тексты для страниц. Это один из белых методов оптимизации , но тут важно не переборщить: за переспам можно попасть под фильтры поисковых систем.</li> <li>Оставшиеся поисковые запросы и те, которые не подходят ни под один раздел, сохраните под названием «О чем еще написать». В дальнейшем можно использовать их для информационных статей.</li> <li>И помните: ориентироваться надо на запросы и интересы пользователей, поэтому пытаться впихнуть все ключи в один текст бессмысленно</li> </ul><h2>Сбор семантического ядра для сайта: основные ошибки</h2> <ul><li>Отказ от высококонкурентных ключей. Да, возможно, в топ по запросу <i>«купить профилированный брус» </i> вы не попадете (и это не помешает вам успешно продавать свои услуги), но включать в тексты его все равно нужно.</li> <li>Отказ от низкочастотки. Ошибочно это по той же причине, что и отказ от высококонкурентных запросов.</li> <li>Создание страниц под запросы и ради запросов. <i>«Купить профилированный брус» </i> и <i>«заказать профилированный брус» </i> – по сути одно и то же, разбивать их по отдельным страницам смысла нет.</li> <li>Абсолютное и безусловное доверие к софту. Без seo-программ не обойтись, но ручной анализ и проверка данных необходимы. И никакая программа пока не может оценить отрасль, уровень конкуренции и распределить ключи без ошибок.</li> <li>Ключи – наше всё. Нет, наше всё – удобный, понятный сайт и полезный контент. Ключи нужны любому тексту, но если текст плохой, то ключи не спасут.</li> </ul> <script type="text/javascript"> <!-- var _acic={dataProvider:10};(function(){var e=document.createElement("script");e.type="text/javascript";e.async=true;e.src="https://www.acint.net/aci.js";var t=document.getElementsByTagName("script")[0];t.parentNode.insertBefore(e,t)})() //--> </script><br> <br> <script>document.write("<img style='display:none;' src='//counter.yadro.ru/hit;artfast_after?t44.1;r"+ escape(document.referrer)+((typeof(screen)=="undefined")?"": ";s"+screen.width+"*"+screen.height+"*"+(screen.colorDepth? screen.colorDepth:screen.pixelDepth))+";u"+escape(document.URL)+";h"+escape(document.title.substring(0,150))+ ";"+Math.random()+ "border='0' width='1' height='1' loading=lazy>");</script> <p> </p> <p>Возможно, будет полезно почитать:</p> <ul> <li><a href="/nastroika-vpn-soedineniya-kak-nastroit-vpn-soedinenie-v-raznyh-versiyah-windows.html"> Как настроить VPN-соединение в разных версиях Windows </a>;</li> <li><a href="/kak-ispravit-problemy-s-iso.html"> Как исправить проблемы с ISO </a>;</li> <li><a href="/windows-10-hyper-v-sozdanie-virtualnoi-mashiny.html"> Windows 10 hyper v создание виртуальной машины </a>;</li> <li><a href="/nastroika-nvidia-dlya-maksimalnoi-proizvoditelnosti-v-igrah.html"> Оптимальные настройки видеокарты Nvidia для игр Настройки 3d nvidia несовместимы с интегрированной графикой </a>;</li> <li><a href="/reshenie-oshibki-ne-uda-tsya-zapustit-windows-iz-za-isporchennogo-ili.html"> Быстрое решение ошибки “Не удается запустить Windows из-за испорченного или отсутствующего файла \WINDOWS\SYSTEM32\config\system” в W </a>;</li> <li><a href="/ispolzovanie-prilozheniya-tvitter-dlya-android-kakoi-twitter-klient.html"> Какой Twitter-клиент установить на смартфон под Android? </a>;</li> <li><a href="/reiting-luchshih-prilozhenii-dlya-skanirovaniya-shtrih-kodov-na-ios-i-android.html"> Создан гаджет SCiO, определяющий состав еды Сканер продуктов питания </a>;</li> <li><a href="/chistka-soobshchenii-vkontakte-kak-udalit-soobshcheniya-v-vk-kak-udalit-srazu.html"> Как удалить сообщения в вк </a>;</li> </ul> <p> </p> <p> <center> </center> </p> </div> </article> </main> <div style="clear: both;"></div> </div> </div> <div id="secondary-left" class="secondary widget-area col-xs-12 col-sm-4 col-md-3 col-lg-3 pull-left" role="complementary"> <div class="block-secondary inner-menu"> <aside id="dc_jqaccordion_widget-4" class="widget "> <div class="dcjq-accordion" id="dc_jqaccordion_widget-4-item"> <ul id="menu-informaciya-dlya-perevozchika-rus" class="menu"> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/smart-tv/">Smart tv</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/windows/">Windows</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/antiviruses/">Антивирусы</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/security/">Безопасность</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/recovery/">Восстановление</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/data/">Данные</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/internet/">Интернет</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/computers/">Компьютеры</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/mobile-devices/">Мобильные уст-ва</a></li> <li id="menu-item-" class="menu-item menu-item-type-taxonomy menu-item-object-category current-menu-item menu-item-"><a href="/category/setting/">Настройка</a></li> </ul> </div> </aside> <aside id="text-11" class="widget widget_text"> <div class="h1 widget-title">Новые статьи</div> <div class="textwidget"> <ul> <li><a href="/trolli-v-seti-uchimsya-davat-otpor-chto-znachit-trollit-kak-pravilno.html">Тролли в сети: учимся давать отпор</a></li> <li><a href="/igra-ne-udalyaetsya-chto-delat-ne-udalyaetsya-programma-kak.html">Игра не удаляется что делать</a></li> <li><a href="/kak-ustanovit-melodiyu-na-telefon-nokiya-lyumiya-kak-na-lyumii-postavit.html">Как на "Люмии" поставить музыку на звонок?</a></li> <li><a href="/moshchnaya-programma-dlya-formatirovaniya-sd-kart-programma-dlya-formatirovaniya-fleshek.html">Программа для форматирования флешек</a></li> <li><a href="/professionalnyi-diktofon-onlain-zapis-golosa-s-pomoshchyu.html">Запись голоса с помощью программ и онлайн-сервисов</a></li> <li><a href="/sobrat-pdf-iz-neskolkih-obedinyaem-pdf-faily-onlain.html">Объединяем PDF файлы онлайн</a></li> <li><a href="/luchshaya-programma-proslushki-telefona-programma-dlya-proslushivaniya.html">Программа для прослушивания мобильного телефона</a></li> <li><a href="/kombinaciya-klavish-dlya-vydeleniya-neskolkih-obektov-pravilnoe.html">Правильное выделение файлов в папке</a></li> <li><a href="/nochnoi-bezlimit-na-bilain-kak-izmenit-na-bezlimitnyi-tarif.html">Как изменить на безлимитный тариф</a></li> <li><a href="/kak-podslushat-mobilnyi-razgovor-proslushivanie-mobilnogo.html">Прослушивание мобильного телефона бесплатно</a></li> </ul> </div> </aside> <aside id="text-11" class="widget widget_text"> </aside> </div> </div> </div> <div style="clear: both;"></div> </div> </div> <footer id="colophon" class="site-footer" role="contentinfo"> <div class="container"> <div id="footer-sidebar" class="row"> <div class="footer-column col-xs-12 col-sm-3 col-md-3 col-lg-3"> <aside id="text-14" class="widget widget_text"> <div class="textwidget">2024 zistons.ru<br> Компьютерный журнал - Zistons </div> </aside> </div> <div style="clear: both;"></div> </div> </div> </footer> </div> <script type="text/javascript"> jQuery(document).ready(function($) { jQuery('#dc_jqaccordion_widget-2-item .menu').dcAccordion({ eventType: 'click', hoverDelay: 0, menuClose: false, autoClose: true, saveState: false, autoExpand: true, classExpand: 'current-menu-item', classDisable: '', showCount: false, disableLink: true, cookie: 'dc_jqaccordion_widget-2', speed: 'normal' } ); } ); </script> <script type="text/javascript"> jQuery(document).ready(function($) { jQuery('#dc_jqaccordion_widget-3-item .menu').dcAccordion({ eventType: 'click', hoverDelay: 0, menuClose: false, autoClose: true, saveState: false, autoExpand: true, classExpand: 'current-menu-item', classDisable: '', showCount: false, disableLink: true, cookie: 'dc_jqaccordion_widget-3', speed: 'normal' } ); } ); </script> <script type="text/javascript"> jQuery(document).ready(function($) { jQuery('#dc_jqaccordion_widget-4-item .menu').dcAccordion({ eventType: 'click', hoverDelay: 0, menuClose: false, autoClose: true, saveState: false, autoExpand: true, classExpand: 'current-menu-item', classDisable: '', showCount: false, disableLink: true, cookie: 'dc_jqaccordion_widget-4', speed: 'normal' } ); } ); </script> <script type="text/javascript"> jQuery(document).ready(function($) { jQuery('#dc_jqaccordion_widget-5-item .menu').dcAccordion({ eventType: 'click', hoverDelay: 0, menuClose: false, autoClose: true, saveState: false, autoExpand: true, classExpand: 'current-menu-item', classDisable: '', showCount: false, disableLink: true, cookie: 'dc_jqaccordion_widget-5', speed: 'normal' } ); } ); </script> <script type="text/javascript"> jQuery(document).ready(function($) { jQuery('#dc_jqaccordion_widget-6-item .menu').dcAccordion({ eventType: 'click', hoverDelay: 0, menuClose: false, autoClose: true, saveState: false, autoExpand: true, classExpand: 'current-menu-item', classDisable: '', showCount: false, disableLink: true, cookie: 'dc_jqaccordion_widget-6', speed: 'normal' } ); } ); </script> <script type="text/javascript"> jQuery(document).ready(function($){ $("a[rel*=lightbox]").colorbox({ initialWidth:"30%",initialHeight:"30%",maxWidth:"90%",maxHeight:"90%",opacity:0.8} ); } ); </script> <script type='text/javascript' src='https://zistons.ru/wp-content/themes/inkness/js/navigation.js?ver=20120206'></script> <script type='text/javascript' src='https://zistons.ru/wp-content/themes/inkness/js/skip-link-focus-fix.js?ver=20130115'></script> <script type='text/javascript' src='https://zistons.ru/wp-content/plugins/lightbox-plus/js/jquery.colorbox.1.5.9-min.js?ver=1.5.9'></script> <script type='text/javascript' src='/wp-includes/js/wp-embed.min.js?ver=4.4.13'></script> </body> </html><script data-cfasync="false" src="/cdn-cgi/scripts/5c5dd728/cloudflare-static/email-decode.min.js"></script>