Так как конкурируя между собой владельцы сайтов и СЕО оптимизаторы уже давным давно стали "напихивать" в странички с текстами много - много раз одни и те же ключи, то есть слишком часто вписывать в страничку одно и то же слово например купить квартиру в Вашем районе. Что бы поисковые системы считали что эти странички нужно показывать пользователям которые вводят в поиске эти слова, ПС быстро стали определять не естественную частоту одних и те же фраз в текстах и не естественную форму их написания – стало понятно что обычно в тексте который натуральный и не искусственный одно и то же слово-сочетание не выглядит идентично буква в букву. поэтому если поисковая система обнаружит что в тексте слишком часто встречаются одни и те же слова да еще и к тому же буква в букву то посчитает это не естественным т.к. чаще обычный текст содержит слова в разных формах написания – в разном времени, числе, с различными окончаниями в конце ключевых слов текста и это отличает естественный текст от искуственно написанного SEO текста – увидев грубо вписанные в текст искусственные слова ПС могут наложить санкции на такой сайт или на отдельные странички и вместо того что бы хорошо их показывать – перестаравшись с СЕО можно принести не пользу а вред т.е. наоборот сайт по ключевым словам станет показываться хуже. В этом курсе по SEO не рекомендуется на объем в 1500 символов 5-6 и более раз писать одно и то же ключевое словосочетание.
Можно конечно но лишь редко. Иначе поисковая система может подумать что текст не естественный и специально написан под нее что бы лучше показываться в поиске – фирмы часто работают на грани этого риска – это позволяет более эффективно задействовать бюджет числа страниц – крепкая СЕО страница с ключами имеет выше вес чем страница с малым числом вхождений ключа и соответственно для достижения эффекта таких страниц нужно меньше чем слабо насыщенных – однако фирмы имеют и опыт переписки с ПС для выхода из под фильтра и ресурсы для быстрого преобразования текстов к нужным требованиям – для личной странички не имея штата сотрудников работать на грани риска крайне не рекомендуется и необходимо соблюдать разумный подход – смотреть самостоятельно насколько число вхождений ключа в тексте нормально при чтении.
Далее СЕО оптимизаторы начали создавать специальные разделы - то же очень давно. Проставлять в сайтах ссылки с номерами 1 2 3 4 5 6 где то в разных местах и по ним размещать сотни страничек с текстом наполненных разными ключевыми словам по 2-3 странички под одно слово ключевое, делали по несколько раз упоминая его в тексте, под другое слово еще 2-4 страничек - и так далее, при этом сам сайт мог быть не так уж и интересен и не так уж красив и полезен но вдруг начинал показываться выше других сайтов за счет искуственных текстов которые не несли в себе ничего интересного а представляли просто переписанный текстс других сайтов - рерайт. Тогда в ПС настроили такие алогритмы которые стали реагировать на числа 1 2 3 4 и часть сайтов за это попадало в бан – особенно если считались условия как не качественный текст и размещение цифр в футере – внизу сайта где читатель мог просто неувидеть эти ссылки а раз их небудет видно то их никто и не прочитает а раз их никто не прочитает то зачем старатся писать красивый и интересный текст – считая это признаком некачественного сайта были случаи когда текст по ссылкам 1 2 3 вообще не идексируется и не принимается ПС никак – постепенно эти условия стали слабее что бы совсем все сайты не банить которые и неплохие, однако кое что от этих алогоритмов судя по всему еще действует – и реагируют они на стурктуру сайта – наличие внутри HTML кода страницы такой структуры когда эти ссылки проставляются в самом конце – в футере сайта в самом самом низу. Таким образом в интернете при создании своего сайта можно натолкнутся на в том числе даже HTML5 шаблоны половина мест в котором поисковыми системами целиком будут проигнорированы! Т.е. шаблон сайта может быть красив – но его внутренняя структура крайне плохо принимается поисковыми системами. Такие сайты будут нереально трудны в их продвижении в интернете через органический поиск не все шаблоны сайтов одинаково хорошо воспринимаются ПС даже если они очень красиво выглядят. Три ключа таких как курс по SEO считаются очень слабыми - специальные SEO тексты большого объема содержат по 9 и выше слов - ПС считает малые тексты малоценными а большие поисковые системы любят, заодно оптимизаторы могут вставить в них больше слов. Да это искажает немного восприятие делая его под роботов - это одна из причин по которым иногда разделяют SEO тексты и информационные если шаблон сайта это позволяет но каждая обычная страница без SEO оптимизации рассказывающая о чем-либо и не содержащая ключевых слов требует еще больше оптимизированных страниц добавить в сайт т.к. даже если кейворды не проставлены в ней ПС все равно пострается найти какую-нибудь тематику для нее разбавив сайт ненужными темами. Курс по SEO рекомендует не создавать больше 8 страниц даже для высокочастотных и сложных ключевых слов, конечно можно решить что есть сайты-книги на определенную тему или другие примеры где и по 30-100 страниц на одну тему - во первых к многостраничным сайтам у ПС доверие выше - им разрешается иногда делать то за что можно получить снижение позиций у молодых и малостраничных проектов, все влияющие факторы и действия не сообщаются администратору в личном кабинете поисковых систем этот механизм во многом скрыт от разработчиков сайтов, ПС может просто зафиксировать N страниц на эту тему и все - а все что выше не учитывать в весе по этой теме. Бывают случаи когда и 12 страниц под ключевое слово и отлично работали - но чем больше страниц с SEO разметкой текста через выделения слов html тегами - вроде как подсказка для ПС какая тема этой странички должна быть присвоена, тем выше шанс попасть на какой-нибудь алгоритм срабатывающий на объем SEO текста - пока страниц 5 он не включается - а на 10+ текстов по определеннму слову насыщенных, включается алгоритм проверки и выносит какое-нибудь решение что все эти страницы больше не учитываются в оценки полезности сайта вообще. Для крупного портала эти параметры срабатывания могут быть другими, допустим 20+ страниц а для небольшого сайта они небольшие - администратор может считать что все отлично, но ничего не знать о том что возможности участия в поиске у проекта снижены и эффект от всех его страниц не учтен потому что сработал какой-то из алгоритмов ранжирования примененный к сайту регулирующий его позиции в результатах поиска.
Что бы не быть забаненными ПС за добавление текстов в сайт в подозрительно странные места СЕО оптимизаторы стали максимально рекомендовать добавить в сайт раздел НОВОСТЕЙ что бы в каждой новой новости о компании можно было вписывать полезные ключи по которым сайт будет лучше показываться в поиске – такой раздел выглядит абсолютно легально для Асессоров – проверяющих в ручную сайты и бан за раздел новостей получить почти невозможно если соблюдать разумность с числом ключевых слов вписанных в новости – однако новости требуют постоянного обновления – а если они по долгу не появляются то компаниям приходится искать PR менеджера который будет заниматься поиском информационных поводов для искусственного создания новости которая в ином случае бы никогда не появилась. Например сайт поставщика стальных труб содержит 2 реальных новости в год, поэтому раздела новостей в нем и не было, но искусственным образом он создается и менеджер начинает нагонять туда новостные поздравления с Новым Годом, днем труда, 8-м Марта, разбавляя текст достижениями компании, публиковать статьи с покупкой новой погрузочной техники, и искусственно придумывать постоянные смены скидок каждые 2 месяца и разные акции которые по большому счету почти ни на что не влияют – но нужны для текстов в новостях. Если раздел Новости появился – ПС его считывают и запоминают что он есть в сайте с таким названием сайт может быть чуть приподнят по позициям – но зато теперь если новости там по долгу появляться небудут этот бонус наоборот будет антибонусом т.к сайт может быть посчитан слегка заброшенным – хотя и урон от этого будет не очень сильный.
|
|