Если мы обернемся в прошлое – взглянем на ситуацию, которая была, скажем, лет шесть назад, – то увидим, что алгоритмы поисковых систем были не такими «умными», как сейчас, и их можно было обходить.
Возьмем ситуацию с текстами (контентом сайта). Изначально можно было скопировать статью с другого сайта, поменять слова в предложении местами, вставить ключевые слова – и вуаля! – мы поднимаемся на хорошие позиции (причем стоит отметить, что для старых сайтов этот прием до сих пор периодически срабатывает).
Или другой вариант: можно было взять несколько статей с разных сайтов и объединить их в одну. (Помните, выше мы уже шутили по поводу того, что копирование из одного источника – это плагиат, а из нескольких – уже докторская диссертация? Это из той же оперы.)
И такой прием некогда срабатывал – поисковая система расценивала подобные тексты как уникальные, сайт поднимался в выдаче.
Отметим, что примерно этот же метод (но только, если можно так выразиться, более «человечный») используется сейчас для раскрутки интернет-магазинов. Объясним, каким образом. Допустим, один и тот же одинаковый прайс-лист используется в ста интернет-магазинах. Как вы понимаете, менять названия товаров в прайсе нельзя, поэтому нужно как-то выкручиваться. Вот часть контента и будет неуникальная – с других сайтов. А другая часть – это уже абсолютно уникальные тексты, написанные специально под данный сайт. И против такого симбиоза поисковик ничего не имеет.
Однако в целом в прошлом наблюдалась довольно нехорошая тенденция, а именно: каждый мог создать множество сайтов с помощью текстов, заимствованных нечестным путем, а проще говоря, ворованных с других ресурсов.
Скажем больше: такие сайты делались автоматически, а потому те самые кристально честные веб-мастера, которые писали тексты с нуля, находились, мягко говоря, в неловком положении: можно было корпеть, стараться, писать уникальный текст, а потом обнаружить, что его украли. Причем тот сайт, на котором разместился украденный текст, мог оказаться выше в выдаче, нежели сайт с первоисточником.
А что же сейчас?
А сейчас поисковая система ранжирует сайты с помощью фильтра, выявляющего уникальность/неуникальность текстов. Если выясняется, что сайт берет тексты с других ресурсов и размещает их у себя, то он признается некачественным и частично либо полностью удаляется из поисковика. Правда, эти фильтры работают неидеально – и отсеивается плагиат не всегда.
Именно поэтому выше мы неоднократно говорили о том, что важно писать много качественных – и главное уникальных! – текстов.
Почему нельзя прятать оптимизированный текст
Итак, почему же этого нельзя делать даже в том случае, если «он портит вид моего потрясающего дизайна», «все равно его никто не читает» и т. п.?
Такие просьбы и пожелания – отнюдь не редкость. Оптимизированный текст может быть не таким эффектным, как того хотел бы владелец сайта, не слишком интересным, не вписывающимся в общий дизайн проекта. К тому же владельцу может казаться, что такой текст никто не будет читать – и зачем тогда его размещать на виду, если он будет только место занимать?
Или же другая ситуация: раньше можно было продвигать только главную страницу сайта, поэтому брались, грубо говоря, сто запросов, и писался текст, где по два-три раза нужно было употребить каждый из них.
В итоге получались гигантские тексты, которые было невозможно читать. Такие тексты мешали пользователям – среди этих «простыней» текста сложно найти необходимую информацию. К тому же одна страница не могла в полной мере отвечать сразу на сто запросов.
Тогда оптимизаторы начали прятать тексты – полностью или частично скрывать их на странице или закрашивать под цвет фона, чтобы они сливались с общей картинкой. С помощью этих хитрых способов можно было также вывести сайт в топ – раньше поисковая система пропускала подобные сайты.
А что же сейчас?
А теперь можно легко получить фильтр (штраф) за сокрытие текста, например, если вы полностью или частично скрыли текст на странице или закрасили его под цвет фона. И если вы написали чересчур большой текст, снова можно нарваться на фильтр.
Это мы к тому, что многие владельцы сайтов просят скрывать тексты от пользователей, но, как видите, это чревато неприятными последствиями.
Почему я (или мой сотрудник) не могу сам написать тексты и оптимизировать их
На самом деле, конечно, можете. Но лучше проявлять самостоятельность только в том случае, если вы знаете, как писать тексты, чтобы не впасть в немилость у поисковой системы.
Дело в том, что раньше ситуация была такова: чем больше в тексте ключевых слов, тем выше сайт в выдаче. Незамысловатый алгоритм. Поэтому оптимизаторы, копирайтеры и другие «правнуки Чехова» создавали тексты, которые невозможно было читать (обилие ключей резало глаза и мешало восприятию сути текста, не говоря уже о том, что зачастую в предложениях хромали орфография, пунктуация).
А что же сейчас?
Сейчас в поисковой системе существует фильтр, определяющий плотность ключевых слов. К примеру, на свет появился молодой сайт. На нем разместили тексты, состоящие сплошь и рядом из одних ключевых запросов. Такой текст может частично или полностью попасть под фильтр из-за обилия ключей.