Если вы ведёте технический блог с сотнями статей и используете теги — рано или поздно столкнётесь с проблемой: одни теги содержат десятки полезных материалов (например, esp32, zigbee), а другие — всего одну статью вроде «проброс-порта-22-на-keenetic». Что делать с такими страницами с точки зрения SEO?
Проблема: тонкий контент и дубли
Поисковые системы (Google, Yandex) не любят:
- страницы с минимальным контентом («тонкий контент»),
- дублирование — когда страница тега дублирует заголовок и аннотацию единственной статьи.
Если проиндексировать все теговые страницы подряд, вы рискуете понизить общий вес сайта. Но если запретить индексацию всех тегов — потеряете полезные тематические хабы, которые могут ранжироваться по запросам вроде «zigbee проекты своими руками».
Решение: умное управление индексацией
Мы реализовали простую логику в PHP-шаблоне теговой страницы:
- Разрешаем индексацию для заранее определённых важных тегов:
esp32,zigbee,smart-home. - Разрешаем индексацию для любых тегов, у которых 5 и более статей.
- Для всего остального — ставим
<meta name="robots" content="noindex, follow">
Код в шаблоне (чистый PHP внутри HTML):
<?php
$tag_slug = $tag['name'] ?? null;
$posts_count = isset($allPosts) && is_array($allPosts) ? count($allPosts) : 0;
$allowed_tags = ['esp32', 'zigbee', 'smart-home'];
$should_index = false;
if ($tag_slug && in_array($tag_slug, $allowed_tags)) {
$should_index = true;
} elseif ($posts_count > = 5) {
$should_index = true;
}
if ($should_index) {
echo '<meta name="robots" content="index, follow"> ';
} else {
echo '<meta name="robots" content="noindex, follow"> ';
}
?>
Что это даёт?
- Чистый индекс — в поиске только полезные, содержательные страницы.
- SEO-выгода — тематические хабы (типа
/tag/zigbee) работают как лендинги для нишевых запросов. - Безопасность — даже если пользователь создаст тег «как-я-варил-борщ-в-2012», он не попадёт в поиск.
- Гибкость — легко расширить список разрешённых тегов или изменить порог (например, с 5 до 3 статей).
Важно!
Не управляйте индексацией через robots.txt — это не работает так, как думают многие. Запрет в robots.txt лишь мешает поисковику сканировать страницу, но не запрещает её индексировать, если на неё есть ссылки. Правильный способ — именно метатег noindex в HTML.
Итог
Гибкий подход к индексации тегов — это баланс между открытостью контента и SEO-гигиеной. Теперь мой блог не боится ни «мусорных» тегов, ни потери трафика по ключевым темам. А вы?
Код можно взять, адаптировать под свой движок и забыть — пока не появится новый крутой тег, который хочется продвигать 😊
Комментарии
Пока нет комментариев. Будьте первым!