Поисковое продвижение сайтов
Шрифт:
Проще говоря, консорциум разрабатывает стандарты, в соответствии с которыми веб-мастера создают сайты, а браузеры показывают эти сайты пользователям. По задумке это должно означать, что если код сайта соответствует стандартам (иначе говоря, код валидный), то браузеры должны его интерпретировать одинаково и у всех пользователей сайт будет отображаться корректно. Отсюда два вывода:
1. Множество ошибок в HTML-коде (несоответствий рекомендациям W3C) может свидетельствовать о плохом качестве сайта.
2. Наоборот, отсутствие ошибок в коде сайта должно свидетельствовать о высоком качестве сайта, поднимать уровень траста и позиции площадки в поисковой выдаче.
На практике все несколько сложнее. Во-первых, сами браузеры
Во-вторых, браузеры научились справляться с ошибками в коде. Теперь, даже если сайт в отдельных моментах не соответствует стандарту, он все равно может вполне корректно отображаться у всех пользователей. Более того, требования W3C зачастую избыточны и неактуальны, а «подгонка» кода под стандарт требует от создателей сайта совершенно неоправданных затрат.
Рис. 4. Валидатор W3C – полезный инструмент для улучшения качества кода сайта
Подведем итог. Валидность (соответствие стандарту W3C) кода сайта является слабым сигналом качества сайта. Это означает, что нужно проверить код всех основных страниц сайта валидатором W3C [62] и по возможности исправить все критические (влияют на отображение сайта) и легкоустранимые ошибки.
На заметку
62
https://validator.w3.org/
Из легкоустранимых ошибок стоит отметить распространенную ситуацию, при которой остаются незакрытыми парные html-теги. Это минимальное требование валидности кода легко исправить, поэтому оно должно обязательно выполняться.
В идеале верстка должна быть валидна. Если получится достичь этого малой кровью – отлично, если нет – следует исправить то, что целесообразно исправлять.
Обратите внимание: чем выше уровень валидности, тем лучше. Но даже высокие показатели не гарантируют кросс-браузерности [63] , то есть идентичной и корректной работы сайта во всех популярных браузерах. Поэтому необходимо периодически тестировать продвигаемый ресурс на разных устройствах, в разных браузерах и при различных разрешениях экрана.
63
https://ru.wikipedia.org/wiki/Kpocc-6pay3epHocTb
Пристальное внимание при тестировании следует обращать на ошибки отображения сайта – ведь именно их видят посетители. Все найденные недочеты нужно задокументировать и исправить.
Мусор в коде. Мусором в программном коде сайта называются куски кода, теги и стили, не несущие полезной нагрузки.
Мусор затрудняет модернизацию сайта и может тормозить его загрузку, поэтому от него нужно избавиться.
Кодировка. На сайте с помощью тега <meta charset=«имя кодировки»> должна быть указана кодировка html-страниц. Это нужно для того, чтобы браузер мог правильно отображать текст: если кодировка не указана и браузер ее не «угадает», вместо букв на сайте пользователь увидит иероглифы.
Тестирование. Необходимо регулярно тестировать сайт в разных режимах: отключать JavaScript, вводить неправильные URL-адреса и данные в формы обратной связи, «ломать» ресурс всеми способами, которые придут в голову. Найденные ошибки следует тщательно законспектировать, а затем устранить.
17. Распределение статических весов
Статический вес – это один из важных параметров, влияющих на продвижение сайта в целом и ранжирование конкретной страницы в частности.
Этот параметр рассчитывается индивидуально для каждой страницы и определяется количеством и качеством ссылающихся на страницу документов, к которым могут относиться html-страницы, pdf и. doc файлы, а также другие распознаваемые поисковыми системами документы с гиперссылками [64] .
Вес можно разделить на внутренний (определяется количеством и качеством внутренних ссылок на страницу со всех других страниц и документов этого же сайта) и внешний (определяется внешними ссылками). Чем больше совокупный вес страницы, тем большую ценность она будет иметь в глазах поисковых систем.
64
https://devaka.ru/articles/checking-linkjuice
SЕО-специалисты стараются всеми силами нарастить вес продвигаемых страниц. С «внешней» стороны проводится работа по наращиванию ссылочной массы (о чем мы поговорим позже). А для правильного распределения внутренних весов проводится оптимизация структуры сайта.
К каждому проекту в этом аспекте приходится подходить индивидуально, но общий принцип должен быть уже понятен: на все продвигаемые и важные страницы (услуги, категории, каталог, карточки товаров) должно стоять как можно больше внутренних ссылок. И наоборот – на нецелевые страницы (профили пользователей, технические страницы) должно вести как можно меньше ссылок (разумеется, без ущерба для удобства использования сайта).
Количественно статический вес страницы определить очень сложно, так как формулы, по которым он рассчитывается поисковыми системами, остаются неизвестными широкой аудитории. Однако это не мешает некоторым специалистам заниматься шаманством и пытаться рассчитать вес страниц с помощью каких-то формул, а на основе полученных результатов расставить внутренние ссылки на сайте. То же самое, с большим или меньшим успехом, делают специальные программы и плагины, которые автоматически расставляют ссылки на страницах сайтов, работающих на основе наиболее популярных в интернете CMS [65] (Content Management System, движок сайта).
65
https://ru.wikipedia.org/wiki/Система_управления_содержимым
В подобных расчетах мало смысла, так как они слишком примитивны по сравнению с математическим аппаратом, который используют поисковые системы. Однако о том, как сосредоточить вес на нужных страницах, нужно думать постоянно: в практике нередки случаи, когда добиться высоких мест по конкурентным запросам удается не в последнюю очередь благодаря правильной расстановке внутренних ссылок.
Рассмотрим несколько универсальных правил, которые помогут добиться нужного результата.
Закрываем ссылки на нецелевые страницы. Напомним, что на страницы, закрытые от индексации в файле robots.txt, лучше не ставить ссылок в пользовательской части сайта. Однако, если это все же необходимо, нужно скрыть ссылки на данные страницы посредством JavaScript таким образом, чтобы в исходном коде документов отсутствовали фрагменты вида «a href=«…».