SEO и тексты. Объёмы и смыслы
Преамбула
Изначально материал писался, как комментарий к посту
Любит ли Яндекс статьи больше 3 тыс. знаков?. Но вылился в самостоятельный пост. Быть по сему.
NB: Если вы не любите большие тексты, переходите сразу к заключению.Введение
Существует масса причин (SEO-косяков), по которым даже самый превосходный текст может не занять хорошие позиции в поисковой выдаче. Частично кое-что об этом я уже писал в предыдущих постах. Сейчас вот никак не соберусь с силами сделать ещё один информационный блок (по SEO-оформлению текстового контента). Безусловно, есть также
статья Панды по SEO-текстам и другой полезный материал на форуме/сайте. Но всё-таки тема неисчерпаема. И это естественно, поскольку Интернет, интернет-маркетинг и работа поисковых систем постоянно развиваются.
Здесь мы поговорим о том, какой объём текста «нравится» или «не нравится» поисковикам. Для чистоты рассуждений (мысленного эксперимента) мы будем считать, что соблюли все необходимые SEO-требования к нашему тексту, и нас волнует только его объём. Например, одно и то же в статье мы можем красиво описать одной тысячей знаков и, скажем, пятью или даже десятью тысячами. Как нам быть, чтобы «угодить» SEO?
Я не буду спорить с Пандой по поводу того, что поисковикам нравятся именно объёмные тексты – 5000–10000 и более знаков (
статья,
ветка форума). Я скажу так:
поисковикам может «понравится» или «не понравится» как объёмный, так и небольшой текст.
Прошлая и новая история
В своё время (примерно, в 2004-2008 гг.), когда поисковые алгоритмы и мощности были ещё слабоваты, поисковики «наивно посчитали», что, если статьи объёмные, то они, действительно, наполнены смыслом. А, следовательно, уже по этому критерию такие тексты подлежат высокому ранжированию. Сеошники быстро смекнули фишку и стали катать портянки до пола. Конечно, они ещё и жёстко спамили страницы ключами и другой чернухой. Но всё равно, портянки, как таковые, некоторое время считались у поисковиков за гуд и пользовались неизменным успехом у сеошников, дорвейщиков и прочая. Одностраничную портянку можно было засандалить в ТОП менее, чем за месяц (сладкие времена для говноSEO!).
Потом поисковики просекли эту лажу. И с развитием мощностей стали требовать объём не для одной страницы, а для сайта в целом. То есть теперь для хорошего ранжирования требовалось создавать сайт со множеством (десятками, сотнями) объёмных страниц. Такой подход считался (и до сих пор по инерции считается) одним из мощных способов SEO-продвижения. Вместе со ссылочными биржами это ознаменовало собой рассвет контентных бирж, когда нужны были именно тысячи знаков – многия тысячи! Работа копирайтера стала превращаться, фактически, в работу машиниста (особенно, если речь о рерайтинге). Лозунгом стало: Даёшь тыщи знаков в день! А «мастерство» копирайтера стало оцениваться по килотоннам букоф в единицу времени (в день). Местами обитания «профессиональных» копирайтеров заявили себя биржи контента, щедро подкармливаемые сеошниками.
Новейшая история
Да, всё это ещё имеет место быть и поныне. Но очередной ветер перемен уже подул, и ситуация опять стала меняться к лучшему (вместе с отменой ссылочного ранжирования).
Сегодня дутые текстовые пустышки уже перестают рулить. Не исключено, что, если не сегодня, то завтра за это вообще последуют пессимизация или даже более суровые санкции вплоть до бана. Теперь поискови определяют именно смысловую нагрузку (полезность) контента. Совершенствования алгоритмов анализа текстов привело к появлению технологии скрытого семантического индексирования (
LSI). Также, огромную роль стали играть поведенческие факторы (
ПФ) – то, как пользователь реагирует на контент: читает ли, загружает ли что-то со страницы, нажимает ли на «нужные» кнопки, звонит ли по телефону, который на странице, копирует ли контент себе и т.д., – много всего. Всё это называются целевыми действиями. Именно их (ПФ) оценивает поисковик, как наиболее мощные (хотя и не единственные) аргументы того, чтобы повысить (или наоборот понизить) страницу и сайт в своей выдаче.
Портяночный ренессанс?
Теперь о том, почему поисковики «любят» объёмные статьи по 10 т. знаков, как пишет Панда. Точнее, опять «полюбили». Действительно, есть такое наблюдение, в частности в Гугле. Бывает даже, что такие совсем молоденькие тексты, действительно, очень быстро (буквально после одного апдейта) поднимаются в ТОП. Некоторые сеошники даже почувствовали сладкий портяночный ренесанс!
Ну в чём же дело? Неужели поисковики, тем более «интеллектуальный» Гугл вновь полюбили портянки? Ведь это же пройденный этап!
В своей
статье Панда считает, что причины высокого ранжирования объёмных текстов кроются в LSI и, в целом, в том, что
«большие SEO-тексты встречаются реже, шлейфовых ключей в них вставить можно больше, тему они раскрывают шире». Не буду спорить. Тем более, я в целом согласен. Но, на мой взгляд, здесь кроется кое-что ещё.
Молодым дорогу
Простецкий логический анализ ситуации приводит меня к следующим умозаключениям.
Поисковики – мощнейшие коммерческие игроки, а потому безусловно мониторят интересующие их секторы рынка. В частности, рынок копирайтинга. И, как я погляжу, ситуация на этом рынке меняется, и это интересно.
Когда работали (и по инерции продолжают пока работать, но меньше) сайты, забитые страницами с тыщами букоф, цены на копирайтинг сформировались достаточно низкие, вплоть до смешных (за еду). Соответственно, писать/заказывать объёмные, но смысловые тексты было просто невыгодно. Однако при введении технологии LSI, а, главное, оценки ПФ (но не только их), стало происходить, примерно, следующее. По аналогии с одностраничными портянками, объёмные, но такие же пустые многостраничники также перестали быть у поисковиков «в почёте». Писать такие тексты начало становиться не просто невыгодным, но даже рискованным, так как запросто можно словить пессимизацию: статей много, они большие, но их не читают. Поисковики это видят и отправляют их фтопку. Подобные тексты и так-то были копеечными, а теперь спрос и цена на них стали сползать к плинтусу и ниже. Как результат, параллельно стали расти спрос и расценки на качественные тексты, требующие от копирайтера существенных интеллектуальных и временных затрат. То есть поисковики сами, фактически, срздали такую коньюктуру на рынках копирайтинга и SEO, сами же теперь этим и пользуются. А именно, сегодня они выделили для себя следующий сигнальный критерий:
Если в Сети появляется объёмный текст, то вероятность того, что он будет качественный существенная, ибо в него, скорее всего, вложили деньги. А значит, стоит обратить на него внимание!Доверяй, но проверяй
Но это лишь вероятность. И в чём тогда принципиальное отличие от ранжирования портяночных текстов десятиленей давности? Как сегодня поисковикам отделять зёрна от плевел?
LSI стопроцентной гарантии всё равно не даёт. Текст всё равно может быть бесполезным для пользователя, и машина тут (пока) бессильна. Она не может 100%-но определить качество текста (и других веб-материалов) только по тексту. То есть надо оценить именно отношение пользователя к тексту. А это делается по ПФ, которых тогда (десять лет назад) ещё не было. Но чтобы определить ПФ, нужно дать пользователям возможность оценить материал - повзаимодействовать с ним. То есть, нужен трафик.
Где его взять?
Страница с текстом молодая, то есть статистика посещений на ней ещё не накоплена. При этом в подавляющем большинстве такие тексты – информационные. Контекстную рекламу на них владелец делать по-любому не сможет – слишком затратно на такой материал.
Поэтому, на мой взгляд, поисковики решили сделать следующее.
Они стали сами давать таким текстам (а иногда и целым сайтм) шанс. Они сразу ставят такие тексты в ТОП именно по признаку объёмности. Но это лишь шанс, а не признание. Это лишь способ обеспечить первоначальный трафик, по которому можно будет судить, полезен ли текст, на самом деле, или он пустышка. Поисковик оценивает набравшийся входящий трафик по ПФ. Оценив ПФ, поисковик уже решает дальше: достойна ли страница ТОПа или её следует понизить (и на сколько). Или вообще загнать за Можай. Поэтому, хотя большие и молодые тексты действительно присутствуют в ТОПах, но эти ТОПы не очень стабильны. Кто-то в них закрепляется, а кто-то нет.
Для более точных выводов на эту тему, конечно, требуется более детальный анализ. Например, анализ истории ТОПов по наличию в них определённых материалов/сайтов. У Мегаиндекса такой сервис есть, и он очень неплох (я слышал, недавно они его ещё довели).
На хитрую задницу найдётся
Коль уж мы заговорили о ПФ, то стоить отметить вот ещё что. Увы, и тут в своё время случился прокол. Появились программы (боты) накрутки ПФ, а также всякие ухищрения по искусственной накрутке ПФ левыми руками (зайти на сайт, полазить по нему, потыкать кнопки). Стали появляться целые сервисы накрутки ПФ, так как тема стала очень популярной. Было это еще пару-тройку лет назад – прямо вчерась. И на этой теме стали стремительно взлетать в ТОП вообще левые сайты, даже делая солидных репутабельных стариков. Говносеошники взвизгнули от счастья, и в выдаче опять случился срачь.
Но технологии не стоят на месте. Сегодня поисковики уже достаточно успешно определяют искусственную накрутку ПФ. И в случае обнаружения таковой следует жесточайший многомесячный вплоть до пожизненного бан без права реабилитации. Поэтому накручивать ПФ сегодня стало просто опасно.
Смыслы
Возвращаясь к объёму. Как мы выяснили, друзья, объём как таковой не является фактором успешного, то есть длительного, присутствия текста в ТОПе. Всё решают ПФ – всё решают смыслы!
А, говоря об объёме, надо смотреть на суть: какой текст, где на сайте размещается этот текст, и для чего он. Смотрите на проект и на место, которое в нём должен занять ваш текст. Проекты очень разные, а тексты тем более. Текст лэндинга может содержать в себе вообще абзац или пару предложений. И при этом лэндинг может быть успешным. А иногда, действительно, требуются многия тыщи и даже миллионы знаков. Успешным примером последнего являются онлайн-книги, справочные руководства, PDF-статьи и прочее. Всё это также хорошо ранжируется в своей теме, если говорить о поисковой оптимизации.
Я, кстати, не совсем согласен с классификацией текстов, которую Панда приводит в своей статье
Правила написания современных SEO-текстов:
продающие, экспертные, информационные и SEO-тексты ни о чём. Действительно, такая классификация имеет место быть, но происходит она именно из SEO-взглядов на тексты. Мне же ближе взгляд юзабилиста, который оценивает тексты, прочие элементы контента, веб-страницы и сайты в целом по их эффективности. В частности, я не вижу принципиальных отличий между экспертными текстами и информационными. Ну, во-первых, любой текст по определению несёт в себе информацию (в норме). Во-вторых, экспертные тексты они вообще ни что иное, как информационные. Эксперт не может писать ни о чём, иначе он не эксперт. С другой стороны, даже информационный текст должен быть написан со знанием дела, то есть экспертно. Ну и наконец, согласно формуле юзабилити
полезность + удобство = отдача, любой текст должен быть эффективен. Даже страница 404 должна быть эффективной и играть на плюс, а не на минус. Для этого 404-страница оформляется соответствующим образом, который в коммерческих проектах, также можно рассматривать как своего рода лэндиг. Всё должно быть наполнено смыслом.
Да, друзья мои, рулят именно смыслы! Не человек идёт вслед за машиной (Интернетом и поисковиками). Машина идёт за человеком. Человек общается – рождает смыслы и обменивается ими. Интернет – это, как раз, информационная среда для общения. И если Интернет вместе с поисковиками не будет удовлетворять этой основной задаче –
распознаванию и обмену смыслами, – он, друзья мои, нафиг людям не нужен. Поэтому разработчики-матаны и трудятся в поте лица, дабы понять человека и сделать человечным Интернет. Об этом частично я уже писал в статье
LSI и прочая – нам просто, им нет.
Заключение
Решайте с помощью текстов конкретные задачи. Именно успешность решения этих задач является критерием успешности (KPI) текстов. И какой требуется для этого объём, такой и пишите. Поисковики это тоже оценят. Им важно, чтобы страница с вашим текстом
работала.