SeoNews.com.ua - SEO & Search Engine News
Поисковая оптимизация
Популяризация токенов способна значительно повысить уровень безопасности в сфере электронной коммерции
Эксперты предлагают заменить передаваемые на торговые серверы финансовые данные электронными идентификаторами, не имеющими ценности для злоумышленников.

Как сообщает издание Network World со ссылкой на доклад одного из крупнейших производителей токенов безопасности, широкомасштабное внедрение такой меры, как дополнительные этапы идентификации, способно в значительной степени сократить количество успешных хакерских атак в сфере электронной коммерции.


Персональные данные граждан РФ будут храниться на российских серверах
Депутаты предлагают изменить дату вступления в силу закона «О персональных данных», согласно которому соцсети и сервисы электронной почты будут обязаны хранить личную информацию пользователей на российских серверах.

Как сообщает издание "Известия", депутаты Госдумы РФ выступили с предложением внести некоторые коррективы в закон «О персональных данных», согласно которому социальные сети и сервисы электронной почты будут обязаны сохранять информацию о конфиденциальных данных граждан РФ на серверах, которые располагаются на территории России. Указ был подписан В. Путиным в июле текущего года, и вступает в действие 1 сентября 2016 года. Тем не менее, госчиновники предлагают ускорить процесс и узаконить перенос личной информации пользователей уже с 1 января следующего года.

Пользователям Wi-Fi в московском метро скоро придется регистрироваться
По просьбе руководства столичного метрополитена компания «Максима Телеком» разработала программное обеспечение, посредством которого будет происходить аутентификация пользователей.

В скором времени все желающие воспользоваться услугами Wi-Fi в Московской подземке смогут сделать это только по регистрации. По просьбе администрации метро компания «Максима Телеком» разработала ПО для аутентификации пассажиров. Новая система будет распознавать посетителей подземки по IMEI-номерам их девайсов, пишут «Известия».

Зарубежным компаниям могут ограничить доступ к российским гостайнам
По предварительным данным, лишиться соответствующей лицензии могут четыре крупнейших аудитора - Deloitte, EY, KPMG и PwC.

Как сообщает издание «Ведомости» со ссылкой на собственных информаторов в двух компаниях из четверки крупнейших зарубежных аудиторов в РФ, отечественные силовые структуры усилили давление на компании и в перспективе могут лишить их возможности работать с данными, представляющими собой государственную тайну.
Началась последняя неделя льготной регистрации на конференцию CEE-SECR «Разработка ПО»
На конференции рассмотрят все аспекты разработки программного обеспечения.

Стартовала последняя неделя льготных летних цен на конференцию CEE-SECR «Разработка ПО» — одно из важнейших событий ИТ-индустрии в России.

До 31 августа регистрационный взнос будет ниже финальной цены на более чем 37%. Кроме того, продолжают действовать специальные предложения для студентов, аспирантов и групп от трех человек. Все скидки суммируются


Seo News
Facebook готовит исправление уязвимости, заставляющей iPhone совершать звонки
Разработчики социальной сети намерены устранить брешь в ближайшем обновлении мобильного приложения для iOS.

Как сообщают представители социальной сети

Facebook, разработчики компании намерены в ближайшее время выпустить обновление безопасности для своего мобильного приложения для iOS-устройств. Речь идет об опасной уязвимости, эксплуатация которой позволяет злоумышленникам удаленно совершать звонки со смартфонов iPhone, принадлежащих жертвам атаки. Для этого достаточно вынудить пользователя перейти по специально сформированной вредоносной ссылке.
95% электронных уведомлений от Facebook успешно шифруются

В Facebook отметили рост количества провайдеров, развертывающих шифрование с помощью STARTTLS.

95% посылаемых Facebook по электронной почте уведомлений, являются зашифрованными. Электронные письма шифруются с помощью свойства протоколов под названием «Совершенная прямая секретность» (Perfect Forward Secrecy, PFS) и строгой проверки подлинности сертификата. Об этом сообщил инженер Facebook Майкл Эдкинс (Michael Adkins), занимающийся вопросами неприкосновенности сообщений пользователей.

Microsoft представит Windows 9 в конце сентября

В ранней версии Windows 9 будет добавлено переработанное меню "Пуск" и, возможно, голосовой помощник Cortana.

В компании Microsoft планируют представить следующую версию ОС Windows во время специального события для прессы, которое состоится в конце сентября. Как сообщает издание The Verge, ссылаясь на собственные источники, в настоящее время представители корпорации собираются рассказать об изменениях в новой версии Windows, получившей кодовое наименование «Threshold» («Предел»), 30 сентября этого года. Напомним, что следующая версия Windows в настоящее время находится в разработке, и в Microsoft планируют выпустить предварительную версию ОС для разработчиков (Developer Preview) 30 сентября или позже.

Google AdWords забанит пейнтбольное и прочее оружие
Менее чем через месяц Google запретит рекламу оружия для страйкбола и пейнтбола, пневматических пистолетов, боеприпасов, обойм и портупей. Жалобы на такую рекламу ранее поступали в Google AdWords Help.

Google опубликовал предварительную версию изменения политики, которая в настоящее время позволяет рекламировать такие товары на AdWords.

Вот образец письма, отправленного рекламодателям AdWords:

«Уважаемый рекламодатель AdWords,

Мы извещаем вас об изменении правил размещения рекламы Google, которые могут повлиять на ваш аккаунт AdWords.


Уязвимость в Windows продолжает создавать опасность для пользователей
Наиболее часто уязвимость CVE-2010-2568 эксплуатировали на ОС Windows XP.

Согласно документу, опубликованному Лабораторией Касперского, злоумышленники продолжают эксплуатировать уязвимость CVE-2010-2568 , несмотря на “возраст” бреши. Недавно Лаборатория Касперского обнаружила десятки миллионов эксплоитов, направленных на устранение ошибки в период с ноября 2013 по июнь 2014 года, которые не устранили ее. Жертвами кибератаки стали 19 миллионов пользователей по всему миру.

Search Engine News
Подпишись на рассылку и будь всегда в курсе наших новостей.

(Перенаправлено с Копипаст)

Дублированный или неуникальный контент - информация, частично или полностью копирующая данные на одном или нескольких сторонних сайтах. Как правило, поисковые системы предъявляют жёсткие требования к текстовому наполнению ресурсов и при попытках разместить подобный контент снижают уровень ранжирования сайта или исключают подобные станицы из индекса. Для проверки текстов на уникальность в сети Интернет существует масса специализированных сервисов, многие из которых также позволяют отслеживать контент и выявлять все попытки его хищения.

Блог (от английского blog – журнал или дневник событий) – это веб-сайт, в качестве наполнения которого выступают регулярно обновляемые записи, добавляемые изображения или размещаемые мультимедийные объекты, выражающие какую-либо мысль автора. Для блогов характерны небольшие записи, отсортированные в хронологическом порядке. В отличие от традиционных дневников, они являются публичными и предполагают наличие сторонних читателей.

Широкое распространение блогов началось уже с 1996г. По мнению газеты «Washington Profile», первым подобным сайтом стал блог Тима Бернерса-Ли, созданный в 1992г. для публикации новостей. Первой же бесплатной службой, позволяющей организовывать такие проекты, стала система Blogger, основанная в 1999г. компанией Pyra Labs и позднее выкупленная корпорацией Google.

Благодаря поданному компанией Apple иску против авторов, обсуждавших её продукцию до официального появления на рынке, с требованием раскрыть источник утечки информации, с 2006г. согласно судебному распоряжению все блогеры обладают такими же правами, как журналисты, имея возможность не разглашать источники информации.

DriveLink – система, предоставляющая возможность осуществлять автоматическую закупку ссылок на биржах Sape, MainLink, SetLinks и LinkFeed с их модерацией. Позволяет добиться максимальной эффективности от поискового продвижения в Яндекс и Google, сэкономить денежные средства и защитить площадки от санкций поисковых систем. Drivelink предлагает полностью автоматические и прозрачные сервисы, определяющие уникальность текста страницы-донора, возраст площадки, её посещаемость, сравнивающие стоимость ссылок со средними ценами на биржах и многое другое.

Описание

Сервис Drivelink отличается удобством и предельно простым принципом действия. При пополнении баланса и указании всех необходимых данных об аккаунтах и продвигаемых ресурсах система Drivelink начинает автоматически выполнять работу по купле-продаже ссылок согласно выбранным параметрам. Всего может быть указано до 30 различных условий.

При этом покупка ссылок осуществляется с заданной периодичностью, исключая дни обновления поисковых баз и ТИЦ в системе Яндекс. В зависимости от выбранного режима – автоматического или полуавтоматического – в интерфейсе системы Drivelink выводится определённый статус ссылки. Результаты произведённых операций сохраняются в истории. Данные хранятся не более 30 дней. Комиссия системы Drivelink за приобретение одной ссылки составляет 10 % от её стоимости.

Проверка ссылок также происходит согласно заданной пользователем периодичностью. Во время этого процесса все купленные системой Drivelink ссылки подвергаются анализу указанными фильтрами, и по результатам работы оптимизатор получает полное представление об их состоянии. Стоимость проверки одной ссылки начинается от 1 копейки и зависит от используемых фильтров.

DriveLink является незаменимым инструментом в области SEO, позволяя оптимизировать процессы по купле-продаже ссылок, являющиеся основой поискового продвижения.

Ссылки

Бан – термин, произошедший от английского слова “запрет”. В области, относящейся к SEO-оптимизации, бан прежде всего значит запрет на индексацию, наложенный поисковыми системами на сайт. Этой мере сайт может быть подвергнут, если поисковые роботы обнаружили нарушения, нечестные методы продвижения сайта, в частности, применение к сайту приемов черной оптимизации. Попав в бан, сайт с большим трудом может выбраться из-под запрета. Даже, если он полностью приведен в норму и соответствует правилам, модераторы поисковой системы не всегда сразу соглашаются на снятие бана. Нередко бывают и случаи наложения постоянного бана. Если ранее сайты блокировались исключительно вручную, то сейчас учащаются случаи автоматического бана.


Виды нарушений

Какие именно нарушения могут подвергнуть сайт внесению в черный список? Существуют статистические исследования, которые утверждают, что самое злостное и популярное нарушение – это черная оптимизация, то есть запрещенные приемы продвижения сайта:

  • клоакинг (создание дублирующих страниц, одна из которых видна индексирующему роботу, а другая – посетителю)
  • недобросовестные манипуляции со ссылками
  • переспамленность ключами в текстах и заголовках
  • злостные нарушения в мета-тегах
  • перенаправление (посетитель, зайдя на сайт, перенаправляется автоматически или вручную на “нужную” страницу)
  • скрытый текст
  • заспамленность ссылками
  • купленные ссылки на некачественных ресурсах
  • частое повторение Nofollow на странице
  • использование неуникального контента, нарушение авторских прав
  • распространение вирусов.


Признаки бана

Вообще, Яндекс, например, проверяет сайт примерно по большому числу факторов, прежде чем сделать заключение о необходимости бана. Санкции по полному исключению сайта из ранжирования и индексирования поисковой системы накладываются на сайт без предварительного предупреждения и обсуждения с владельцем сайта. Признаком того, что сайт попал в бан является то, что сайт перестает индексироваться, не попадает в выдачу ни по одному из ключевых слов. Если сайт попал в бан в одной из поисковых систем, совсем не означает, что его забанит другая система, однако, это весьма тревожный сигнал. В Яндексе и Google существуют специальные сервисы, где можно узнать, забанен ли сайт и почему к нему были применены запретные санкции. Бан сайта не всегда сочетается с понижением ТИЦ или PR. Репутация сайта, бывшего забаненным, испорчена и высоких позиций, выйдя из бана, добиться непросто.



В Интернете могут встречаться слова-синонимы: баня

Клоакинг (от английского cloak – маска, прикрытие) – способ чёрной оптимизации сайтов, заключающийся в различных формах выдачи информации поисковым роботам и пользователям на одной и той же странице. Так как удобочитаемые тексты нередко проигрывают по ранжированию оптимизированному под ключевые слова контенту, некоторые веб-мастера прибегают к созданию страниц в двух вариантах, показывая ту или иную информацию пользователям и поисковым роботам в зависимости от их IP-адресов или User Agent.

Содержание

Описание

По своему действию клоакинг напоминает использование дорвеев, но, в отличие от последних, не требует организации автоматического перенаправления или ручного перехода пользователей на нужную страницу, что не позволяет конкурентам увидеть оптимизированную страницу и использовать её в своих разработках. Однако клоакинг является более трудоёмким способом оптимизации, чем создание дорвеев. Для его реализации потребуются не только навыки программирования, но и базы данных поисковых роботов.

Способы создания

Так как запросы пользователей и поисковых роботов отличаются между собой по IP-адресу и User Agent, это предоставляет возможность веб-мастеру наладить автоматическую выдачу различной информации – поисковым системам оптимизированные страницы, а посетителям обычное наполнение сайта. Выполняется это при помощи специальных программ и скриптов:

  • Клоакинг по User agent. Является наиболее простым методом, основанным на проверке данных User agent, в которых передаётся имя поискового робота. К примеру, один из алгоритмов Яндекс при входе на сайт представляется как Yandex/1.01.001 (compatible; Win16; I). Используя подобную информацию о поисковых системах, возможно создать специальные скрипты, которые при запросах будут сравнивать User agent посетителей с собранной базой имён роботов и при их обнаружении выдавать оптимизированный контент.

Несмотря на эффективность, такой способ легко распознать. Для этого пользователю достаточно с помощью специальных программ зайти на сайт под именем робота и получить оптимизированную страницу вместо обычной. Как правило, это делается конкурентами для выявления методов оптимизации или предоставления полученной информации в службу поисковой системы, которая может наложить на продвигаемый сайт санкции.

  • Клоакинг по IP-адресу. Основывается на проверке IP-адресов, используемых роботами, и является наиболее надёжным способом подмены страниц, так как IP-адрес практически невозможно подделать. Располагая информацией о корпоративных подсетях поисковых систем, можно выдавать нужные страницы всем посетителям из указанных диапазонов, что предотвратит выявление обмана при ручной проверке сотрудниками поисковой системы. Однако для реализации данного клоакинга потребуется база данных со всеми используемыми адресами.
  • Комбинированный клоакинг. Для определения роботов применяются сразу два вышеописанных способа – проверка данных в User-agent и определение IP-адресов, что повышает эффективность метода.

Отношение к поисковым системам

Большинство поисковых систем, в частности «Яндекс», определяют клоакинг как нечестный способ продвижения сайтов и применяют к подобным ресурсам штрафные санкции. Часто веб-мастера создают страницы не просто оптимизированными, а в корне отличными от оригинальных. К примеру, выдавая поисковому роботу обычный текст с часто используемыми ключевыми словами, а пользователям рекламные ссылки с предложением приобрести продвигаемые товары. Но клоакинг не всегда рассматривается поисковыми системами в качестве обмана. Формирования страниц в зависимости от параметров запросов может использоваться и в таких целях, как выдача пользователям страницы в зависимости от установленного в их браузере языка, перенаправление посетителей на зеркало сайта или показ версии сайта, корректно отображающегося в специфическом браузере.

На данный момент клоакинг широко используется большинством крупных сайтов, в частности:

  • сервисами Google;
  • ресурсом Amazon.com, который варьирует выдачу товаров в зависимости от ранее просматриваемых пользователем страниц.
  • Yelp.com, применяющим геотаргетинг;
  • NYTimes.com, приглашающим зарегистрироваться на сайте после 5 кликов;
  • Forbes.com, на котором невозможно попасть на главную страницу, не просмотрев прежде рекламный ролик;
  • ComputerWorld.com, показывающим своим посетителям огромное количество рекламных окон, а роботам обычный html-текст.

Классификация типов клоакинга

В зависимости от предназначения клоакинг также может делиться на:

  • «Белый», представляющий собой перенаправление пользователей в целях повышения удобства работы с сайтом и не нарушающий лицензии поисковых систем. Сюда также относится геотаргетинг.
  • «Серый». Часто к размещаемым статьям веб-мастера добавляют возможность их распечатывания или показа в текстовом виде, что порождает возникновение различных вариантов одного и того же материала. Ссылки на них с других блогов или сайтов могут привести к индексации контента в качестве неуникального. В целях избегания этого явления на второстепенные ссылки ставится специальный редирект, направляющий ссылочный вес на оригинальную статью. Несмотря на нарушение правил, подобные методы приносят пользу посетителям и не приводят к наложению поисковых санкций.
  • «Черный». К этому виду относится любой клоакинг, выдающий пользователям нерелевантный текст или обманывающий поисковые роботы при помощи предоставления им оптимизированного контента в целях повышения ранжирования.

Реципиент – одна из сторон поискового продвижения. Реципиентом называется сайт, на который пользователя переадресуют ссылки, размещённые на сторонних ресурсах в рамках ссылочной стратегии оптимизации. Другими словами, реципиент – это и есть продвигаемый сайт, на который ведут внешние ссылки с других сайтов. Ресурсы-реципиенты всегда рассматриваются в паре с сайтами-донорами, на которых как раз и размещаются внешние ссылки. Реципиента и донора невозможно рассматривать порознь, ибо они как две стороны медали – неразрывно связаны. И всё же реципиентам присущи особенности, ставящие их особняком.

Содержание

Кто на новенького?

Очевидно, что в продвижении в большей степени нуждаются сайты новые, только-только появившиеся на свет. В этом и заключается одна из особенностей статуса реципиента. Реципиент – почти всегда новичок. Это вовсе не означает, что в продвижении не нуждаются сайты-ветераны. Ресурсам репутационным, или, как говорят специалисты, трастовым, нельзя успокаиваться и почивать на лаврах в верхних строчках поисковой выдачи. Этим сайтам нужно предпринимать определённые шаги для сохранения своих позиций, а то, глядишь, вчерашний новичок и потеснит с насиженного места. Однако мероприятия по удержанию лидерских позиций менее трудозатратные для оптимизатора, чем по продвижению сайта новорождённого.

Едва столкнувшись с технологией поисковой оптимизации, человек видит, что первым по значимости и скорости продвижения способом продвижения является постановка внешних ссылок на продвигаемый сайт. Специалисты нетерпеливые, склонные «идти в атаку», принимаются делать свой сайт реципиентом максимального количества доноров. Случается, ссылочное продвижение идёт настолько агрессивно, что поисковики не продвигают такой сайт, а «задвигают» на задворки выдачи. Какое продвижение считается агрессивным? Признаков, на самом деле, не так много.

Во-первых, размещение гигантского количества внешних ссылок, что сигнализирует поисковым системам о явной покупке интереса к продвигаемому сайту, а не о его истинной ценности для пользователя. Во-вторых, размещение внешних ссылок на сайтах, которые от тематики продвигаемого ресурса далеки. Ну и, в-третьих, попытки продвинуть ресурс методами чёрной и серой оптимизации. Сайты, уличённые поисковыми системами в вышеперечисленном, наказываются либо штрафами, либо исключением из поискового индекса.

Медицинская аналогия

Агрессивное продвижение реципиента можно сравнить с попытками быстрой, но, увы, бесполезной реанимации больного. Представьте, что единственным способом спасти жизнь человека является переливание крови. Донор и реципиент в чистом виде. Эта медицинская технология уже отработана годами. А теперь вообразите, что неопытный медик, не обладая достаточными знаниями вопроса, пытается ускорить процесс реанимации, переливая не сто граммов крови, а десять литров. Или берёт для переливания кровь, которая вообще другой группы, чем кровь пациента. Результат очевиден.

Точно так же и в продвижении сайтов. Большая ссылочная масса – это избыточная «кровь», а размещение на неродственных по тематике сайтах – это разница в «группах крови». Законы успешного поискового продвижения гласят. Первое – количество внешних ссылок для сайта-реципиента должно быть дозированным, и наращиваться должно постепенно. И второе – внешние ссылки должны размещаться на тематически родственных сайтах или, если сайт «чужой», так органично вписываться в его контент, чтобы асессор поисковой системы не заподозрил неладного. Такое продвижение сродни правильному переливанию крови. В обоих случаях реципиенты продолжают счастливо жить. Один в реальном мире, другой – в прекрасном виртуальном космосе по имени Интернет.

С другой стороны

Продвигаемый сайт может стать реципиентом не только при поисковой оптимизации, а и при продвижении в интернет-сообществах. Если пользователи социальных сетей или участники форумов ссылаются на продвигаемый сайт, если он таким образом увеличивает трафик, то, как реципиент, он ничем не отличается от других таких же ресурсов. Правда, ценными внешние ссылки с форумов и социальных сетей назвать можно лишь условно – поисковые машины придают им не такой ссылочный вес, как ссылкам с трастовых ресурсов.

Здесь аналогия с медициной, наверное, неуместна. Скажем, форум Searchengines или сеть Twitter донорами вряд ли можно считать. И сайт, на который ссылаются пользователи этих ресурсов, напрямик их реципиентом не является. Однако популярность сайта среди участников вышеназванных сообществ может достичь достаточно высоких значений, и, кто знает, может быть, необходимость в поисковом продвижении для такого популярного сайта окажется уже не такой настоятельной. Пользователи, размещающие ссылки на продвигаемый сайт, буквально вдыхают в него жизнь, вливают свою энергетику, и ресурс приобретает высокую репутацию. Веб-мастеру остаётся её только поддерживать.

Смена статуса

Звёздный час любого сайта-реципиента – это его превращение в донора. Это происходит, когда продвигаемый сайт набирает такую высокую репутацию, что поисковые машины начинают доверять ссылкам, которые он размещает на своих страницах. Да-да, так бывает. Вчерашний реципиент сам становится донором и помогает другим сайтам выходить в топ поисковых систем.

Впрочем, по-настоящему успешный сайт никогда не перестанет быть реципиентом. Оптимизатор такого сайта, без сомнения, человек дальновидный, а посему будет всегда заинтересован в том, чтобы на его сайт ссылались сторонние ресурсы. Диалектика.

CTI

CTI (Click To Interest) – численный коэффициент, отображающий эффективность интернет-рекламы. CTI определяется соотношением заинтересованных посетителей к их общему числу. При этом заинтересованными считаются те пользователи, которые просмотрели на сайте более одной страницы, вернулись на площадку вновь или добавили её адрес в избранное. В отличие от таких первичных показателей, как хит и хост, используемых при анализе интернет-рекламы, CTI является относительным коэффициентом, зависимым от общего числа посетителей.

Copylancer (Копилансер) – один из крупнейших контент-провайдеров в Рунете. Существует с 2007г. и по праву считается флагманом российского рынка копирайтинга. В отличие от других бирж, Копилансер имеет закрытую регистрацию и принимает к участию лишь профессиональных исполнителей, что позволяет ему предоставлять контент, выполненный на высоком качественном уровне.

Сервисы Copylancer постоянно расширяются и дополняются всё новыми услугами, среди которых стоит отметить автоматическую службу по наполнению сайтов уникальными новостями, проверку текстов на наличие плагиата системой Miratools, возможность перевести контент на другие языки, обратиться за помощью к корректору и многое другое.

В настоящий момент в системе Copylancer активно развивается магазин готовых статей, позволяющий приобрести уникальные тексты, не обращаясь к услугам копирайтера. В целях повышения удобства весь контент проходит ручную модерацию, что снижает риск покупки клиентом Копилансера низкосортного товара. В качестве самостоятельного модуля системы Copylancer также стартовал сервис Контент1, позволяющий осуществлять размножение статей. Программный интерфейс системы Copylancer существенно облегчает данный процесс и не имеет аналогов в сети Интернет.

Копилансер интегрирован с такими крупнейшими биржами, как Sape, Liex, Profit-partner и др. С 1 мая (неофициально с 1 апреля) 2010 г. система является дочерним проектом Miralinks, что дало ей возможность предоставлять свои услуги ещё на более качественном уровне и воплощать в действительность любые проекты в сфере копирайтинга.

Ссылки



В Интернете могут встречаться аббревиатуры-синонимы: КЛ, CL

Поддомен - это домен, который является частью домена наиболее высокого уровня. Также поддоменом можно назвать часть основного доменного имени. Поддомены используют для разделения сайта на разделы, если сайт является порталом. Почти все платные хостинги предоставляют услугу по регистрации поддоменов, есть только лимит на количество регистрируемых поддоменов, хотя и не везде, но главное что поддомен можно получить бесплатно и сделать на нём полноценный сайт. Если у вашего сайта есть множество сервисов, будет огромным плюсом разделение всех сервисов на отдельный поддомен, ведь главная страница поддомена будет иметь наибольший весь чем раздел сайта. Например, yandex.ru - домен второго уровня, а mail.yandex.ru - поддомен основного домена yandex.ru .

См. Домен

Black-лист (блэклист) – списки, содержащие сайты-доноры, покупка внешних ссылок с которых ухудшает позиции продвигаемого сайта в поисковых системах. Составление black-листов предпочтительно в случае ссылочного продвижения, когда ссылки покупаются автоматически в огромных количествах. Общеизвестно, многие ссылочные биржи предоставляют своим клиентам специальные программные фильтры. Пользователь настраивает такой фильтр и отсеивает площадки, которые не соответствуют выбранной им стратегии продвижения. Часто в настройки фильтров входит возможность внесения адресов таких площадок. Использование блэклиста позволяет быстро настраивать такие фильтры. В итоге пользователь получает ссылки только с трастовых сайтов.

Расскажем вам, по каким параметрам сайт может быть включён в блэклист.

Содержание

Молодые и старые сайты

Небольшой срок существования сайта может, в принципе, являться причиной занесения ресурса в блэклист. Особенно если это сайт, который создан только для продажи ссылок. Ссылочный вес такие сайты не передают, а могут и существенно навредить. Поисковые машины воспринимают наличие ссылки с таких ресурсов как причину для наказания сайта вплоть до исключения из индекса. Для оценки качества молодого сайта необходимо посмотреть на стабильность результатов его продвижения. Если на протяжении всего срока жизни позиции сайта-новичка то взлетают, то падают в бездну, то лучше занесите такой сайт в black-лист. На всякий случай.

Однако и солидный возраст не может оградить сайта от включения его в блэклист. Если сайт, к примеру, числится в постоянных нарушителях у поисковых машин, то, разумеется, ожидать передачи большого веса с такого сайта не стоит. Определяется авторитет старого сайта достаточно просто. Если сайту, условно говоря, десять лет, а они ни разу не поднимался выше пятнадцатой строчки выдачи, то, либо его владелец нарушал требования поисковых систем, либо сайт просто неинтересен. Вы только оградите продвигаемый сайт от санкций, а себя от потерь ссылочного бюджета, если внесёте такой сайт в блэклист.

Вложенные сайты

Здесь речь идёт об уровнях доменных имён. Что такое доменное имя, расскажем на примере. Всем оптимизаторам Рунета известен ресурс Searchengines.ru или попросту Сёрч. Так вот, обозначение Searchengines.ru является доменным именем Сёрча. Это домен первого уровня. Вес внешних ссылок с его страниц достаточно большой. Особенно, с учётом авторитета столь уважаемого ресурса, как Сёрч.

Далее. Все знают, что Сёрч располагает форумом по адресу Forum.searchengines.ru. Это уже домен второго уровня вложенности. Ссылочный вес со страницы форума Сёрча не уже будет не таким большим, как со страниц, так сказать, главного Сёрча. Если же администрация Сёрча решит открыть отдельный подфорум с доменным именем, скажем, svoi.forum.searchengines.ru, то это будет уже домен третьего уровня. Здесь о ссылочном весе говорить вообще не приходится.

В соответствии с такой же иерархией могут быть построены все сайты всемирной паутины. И законы передачи ссылочного веса в этом контексте действуют для всех сайтов. Следовательно, в блэклист можно смело заносить домены третьего уровня вложенности. Да и второго, наверное. Всё равно веса они почти не передают.

Характеристики страниц сайтов

Страницы для внесения сайта в блэклист оцениваются, в основном по двум параметрам – по соотношению количества проиндексированных страниц к их общему объёму. Проиндексированность страниц говорит о качестве сайта, большое же количество страниц, которые не в индексе поисковых систем сигнализирует о каких-то нарушениях со стороны веб-мастера. Если сайт содержит сто страниц, а в индекс попали только десять, то путь такого сайта – только в блэклист. Специалисты спорят о том, каково должно быть оптимальное соотношение, и мнения разнятся, поэтому мы не станем называть точных цифр. Скажем лишь, что чем отношение больше, тем больше причин занести такой сайт в блэклист.

Затем оценивается количество внешних ссылок на странице. Здесь ситуация проще, потому что аналитики вроде бы сошлись во мнении об оптимальном количестве внешних ссылок на странице. Если их число превышает десять штук, то заносите такой сайт и его жадного веб-мастера в блэклист.

Помощь поисковых систем

В деле создания точного и информативного блэклист весьма действенна помощь поисковых систем. Не секрет, что поисковики самостоятельно ведут статистику «плохих» сайтов, помещая их под свои фильтры. Выяснить, какой сайт под каким фильтром находится, не так уж и трудно. Например, не является затруднением выяснить, какой сайт находится под фильтром Яндекса «Ты последний». Это достаточно точно показывает, что связываться с таким сайтом не стоит. Впишите его в формируемый вами блэклист и не забудьте обновить фильтры автоматического размещения на той ссылочной бирже, услугами которой пользуетесь.